[go: up one dir, main page]

JP7619893B2 - ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM - Google Patents

ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM Download PDF

Info

Publication number
JP7619893B2
JP7619893B2 JP2021095159A JP2021095159A JP7619893B2 JP 7619893 B2 JP7619893 B2 JP 7619893B2 JP 2021095159 A JP2021095159 A JP 2021095159A JP 2021095159 A JP2021095159 A JP 2021095159A JP 7619893 B2 JP7619893 B2 JP 7619893B2
Authority
JP
Japan
Prior art keywords
frames
section
information
unit
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021095159A
Other languages
Japanese (ja)
Other versions
JP2022187239A (en
Inventor
進平 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Corp
Original Assignee
Evident Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Corp filed Critical Evident Corp
Priority to JP2021095159A priority Critical patent/JP7619893B2/en
Publication of JP2022187239A publication Critical patent/JP2022187239A/en
Application granted granted Critical
Publication of JP7619893B2 publication Critical patent/JP7619893B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムに関する。 The present invention relates to an endoscope device, an endoscope system, an operation method for an endoscope device, and a program.

被検体の内部の傷および腐食等の検査に工業用の内視鏡装置が使用されている。被検体は、ボイラー、パイプ、および航空機エンジン等である。内視鏡装置は、被検体の動画を生成する機能を持つ。動画を自動で編集するための以下の技術が知られている。その技術は、Visual Simultaneous Localization and Mapping(Visual SLAM)などを使用することにより、動画の各フレームが生成されたときの内視鏡の先端部の位置および姿勢を推定する。また、その技術は、その位置とその姿勢とを示す情報を各フレームに関連付け、かつその情報を管理する。 Industrial endoscope devices are used to inspect the inside of a specimen for damage, corrosion, and the like. The specimens include boilers, pipes, and aircraft engines. The endoscope device has a function for generating videos of the specimen. The following technology is known for automatically editing videos. This technology uses Visual Simultaneous Localization and Mapping (Visual SLAM) or the like to estimate the position and orientation of the tip of the endoscope when each frame of the video is generated. This technology also associates information indicating the position and orientation with each frame and manages this information.

特許文献1に開示された技術は、カメラが一定の速さで移動しながら撮影を実施したときに生成された動画を編集する方法を提供する。その技術は、動画内の各フレームに関連付けられた撮影位置情報に基づいてフレームを間引く。特許文献1の図4および図17に示されるように、その技術は、一定の距離毎に生成された複数のフレームを抽出し、かつそのフレームをつなぎ合わせる。これにより、その技術は、カメラが一定の速さで移動しながら撮影を実施したときに生成された動画と同様の動画を生成する。 The technology disclosed in Patent Document 1 provides a method for editing video generated when shooting is performed with a camera moving at a constant speed. The technology thins out frames based on shooting position information associated with each frame in the video. As shown in Figures 4 and 17 of Patent Document 1, the technology extracts multiple frames generated at regular distances and stitches the frames together. In this way, the technology generates a video similar to the video generated when shooting is performed with a camera moving at a constant speed.

特許文献2に開示された技術は、動画の再生速度を変更する方法を提供する。その技術は、画像処理を実行することにより、特徴部分がフレームに映っている期間を抽出する。その技術は、その期間における動画の再生速度を遅くする。これにより、特徴部分の動画がスローモーションで再生される。 The technology disclosed in Patent Document 2 provides a method for changing the playback speed of a video. The technology performs image processing to extract a period during which a characteristic portion appears in the frame. The technology slows down the playback speed of the video during that period. This causes the characteristic portion of the video to be played in slow motion.

特開2001-290820号公報JP 2001-290820 A 特許第6663491号公報Patent No. 6663491

従来技術では、検査時に生成された検査動画をユーザーが閲覧するときの負担が大きい。撮影時間が長い検査動画をユーザーが閲覧するとき、閲覧に時間がかかり、ユーザーの負担が大きい。特に、被検体が複雑かつ大きい場合、検査動画の撮影時間は非常に長い。また、内視鏡が被検体に挿入されるときの速さ(挿入速さ)は一定ではない。ユーザーが早送り再生を行い動画を閲覧することがある。一般的な早送り再生では、動画の再生速度は一定であるけれども、内視鏡は、実際の挿入速さに応じた見かけの速さで被検体に挿入される。そのため、検査動画の再生時に、画像に写っている被写体の移動が速すぎる、または遅すぎる場面が発生し、ユーザーが検査動画を閲覧しづらい。 In conventional technology, the burden on the user is great when viewing the examination video generated during the examination. When the user views an examination video that takes a long time to shoot, the viewing takes a long time, which places a great burden on the user. In particular, when the subject is complex and large, the shooting time of the examination video is very long. In addition, the speed at which the endoscope is inserted into the subject (insertion speed) is not constant. The user may view the video by fast-forwarding. In general fast-forwarding playback, the playback speed of the video is constant, but the endoscope is inserted into the subject at an apparent speed that corresponds to the actual insertion speed. As a result, when the examination video is played back, there are scenes in which the subject in the image moves too fast or too slow, making it difficult for the user to view the examination video.

特許文献1に開示された技術は、カメラの速さが一定となるように動画のフレームを間引く。しかしながら、その技術では、ユーザーが重要な箇所を見逃す可能性がある。 The technology disclosed in Patent Document 1 thins out video frames so that the camera speed remains constant. However, this technology may cause the user to miss important parts.

特許文献2に開示された技術は、画像を解析することにより特徴点を抽出し、その特徴点がフレームに映っている期間を強調する。例えば、その技術は、その期間において動画がスローモーションで再生されるように動画の再生速度を遅くする。検査者が検査中に注目する箇所は、そのような特徴点を持つ箇所とは限らない。そのため、検査動画が再生されたとき、検査者が注目する箇所においてスローモーション再生が実行されるとは限らない。その結果、検査動画の閲覧者は、検査者が注目する箇所と異なる箇所に注目する可能性がある。閲覧者が検査結果の承認を実施するとき、検査者にとって重要な箇所を正しく評価することができない。そのため、検査全体の効率が低下する。 The technology disclosed in Patent Document 2 extracts feature points by analyzing an image, and emphasizes the period during which the feature points appear in the frame. For example, the technology slows down the playback speed of the video so that the video is played in slow motion during that period. The location that the inspector focuses on during the inspection is not necessarily a location that has such feature points. Therefore, when the inspection video is played back, slow motion playback is not necessarily performed at the location that the inspector focuses on. As a result, the viewer of the inspection video may focus on a location different from the location that the inspector focuses on. When the viewer approves the inspection results, they are unable to correctly evaluate the locations that are important to the inspector. This reduces the efficiency of the entire inspection.

本発明は、動画再生時のユーザーの負担を低減させることができ、かつ動画再生時にユーザーに重要な箇所を容易に確認させることができる内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムを提供することを目的とする。 The present invention aims to provide an endoscope device, an endoscope system, an operation method for an endoscope device, and a program that can reduce the burden on the user when playing back a video and allow the user to easily check important points when playing back a video.

被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部と、を有し、前記制御部は、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、前記動画を編集する動画編集部と、を有し、前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す内視鏡装置である。 The device has an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, the control section having an information receiving section that receives operation information indicating the content of an operation performed by a user, an information generating section that generates length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing section that edits the video, and the video editing section divides the two or more frames into one or more frames in a first section and one or more frames in a second section that are different from the first section based on the operation information. and one or more frames in a second section, the first section including a timing when a user performs a predetermined operation, the video editing unit reduces the number of frames per unit length in the second section based on the length information, the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicates the number of frames per unit length in the first section, and the second number of frames indicates the number of frames per unit length in the second section.

本発明の内視鏡装置において、前記動画編集部は、前記第2の区間における前記動画が再生されている状態における前記挿入部が前記被検体に挿入される見かけの速さが一定となるように前記第2の区間におけるフレーム数を調整する。 In the endoscope device of the present invention, the video editing unit adjusts the number of frames in the second section so that the apparent speed at which the insertion section is inserted into the subject during playback of the video in the second section is constant.

本発明の内視鏡装置において、前記情報生成部は、前記2枚以上のフレームを使用することにより、前記2枚以上のフレームの各々が生成されたタイミングにおける前記撮像素子の位置を推定し、推定された前記位置に基づいて前記長さを推定する。 In the endoscope device of the present invention, the information generating unit uses the two or more frames to estimate the position of the image sensor at the time when each of the two or more frames was generated, and estimates the length based on the estimated position.

本発明の内視鏡装置において、前記情報生成部は、前記2枚以上のフレームに加えて、センサ情報を使用することにより前記位置を推定し、前記センサ情報は、第1のセンサによって生成された第1のセンサ情報、第2のセンサによって生成された第2のセンサ情報、および第3のセンサによって生成された第3のセンサ情報の少なくとも1つを含み、前記第1のセンサ情報は前記長さを示し、前記第2のセンサ情報は前記挿入部の先端の加速度を示し、前記第3のセンサ情報は、前記先端の角速度を示す。 In the endoscope device of the present invention, the information generating unit estimates the position by using sensor information in addition to the two or more frames, and the sensor information includes at least one of first sensor information generated by a first sensor, second sensor information generated by a second sensor, and third sensor information generated by a third sensor, the first sensor information indicating the length, the second sensor information indicating the acceleration of the tip of the insertion section, and the third sensor information indicating the angular velocity of the tip.

本発明の内視鏡装置において、前記動画編集部は、前記位置の変化の軌跡が最短となるように前記2枚以上のフレームの一部を削除する。 In the endoscope device of the present invention, the video editing unit deletes a portion of the two or more frames so that the trajectory of the position change is the shortest.

本発明の内視鏡装置において、前記情報生成部は、前記長さを検出するセンサによって生成されたセンサ情報に基づいて前記長さ情報を生成する。 In the endoscope device of the present invention, the information generating unit generates the length information based on sensor information generated by a sensor that detects the length.

本発明の内視鏡装置において、前記操作情報は、静止画を取得する指示、静止画を保存する指示、計測を実行する指示、前記挿入部を湾曲させる指示、画像処理の設定を変更する指示、ラベルを前記動画に添付する指示、および情報を静止画に添付する指示の少なくとも1つを含む。 In the endoscope device of the present invention, the operation information includes at least one of an instruction to acquire a still image, an instruction to save a still image, an instruction to perform a measurement, an instruction to bend the insertion section, an instruction to change the image processing settings, an instruction to attach a label to the video, and an instruction to attach information to a still image.

本発明の内視鏡装置において、前記情報は、メモおよび傷の評価結果を含む。 In the endoscopic device of the present invention, the information includes notes and wound evaluation results.

本発明の内視鏡装置において、前記第2の区間は、1つ以上の部分区間を含み、前記1つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値よりも大きい場合、前記動画編集部は、前記1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く。 In the endoscope device of the present invention, the second section includes one or more subsections, and if the number of frames per unit length in at least one of the one or more subsections is greater than a predetermined value, the video editing unit thins out at least one frame in at least one of the one or more subsections.

本発明の内視鏡装置において、前記第2の区間は、2つ以上の部分区間を含み、前記2つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値以下である場合、前記動画編集部は、前記2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する。 In the endoscope device of the present invention, the second section includes two or more subsections, and if the number of frames per unit length in at least one of the two or more subsections is equal to or less than a predetermined value, the video editing unit adds at least one frame to at least one of the two or more subsections.

本発明の内視鏡装置において、前記第1の区間における1枚以上のフレームは、前記ユーザーが前記所定の操作を実施した前記タイミングにおいて生成された1枚のフレームと、前記タイミングよりも前に生成された1枚以上のフレームと、前記タイミングよりも後に生成された1枚以上のフレームとを含む。 In the endoscope device of the present invention, the one or more frames in the first section include one frame generated at the timing when the user performs the specified operation, one or more frames generated before the timing, and one or more frames generated after the timing.

本発明は、内視鏡装置および制御装置を有し、前記内視鏡装置は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、前記動画を前記制御装置に送信する送信部と、を有し、前記制御装置は、前記動画を前記内視鏡装置から受信する受信部と、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、前記動画を編集する動画編集部と、を有し、前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す内視鏡システムである。 The present invention includes an endoscope device and a control device, the endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, an information receiving section that receives operation information indicating the content of an operation performed by a user, and a transmission section that transmits the video to the control device, the control device having a receiving section that receives the video from the endoscope device, an information generating section that generates length information indicating the length of the portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing section that edits the video, the video editing section editing the two or more frames based on the operation information. An endoscope system that classifies frames into one or more frames in a first section and one or more frames in a second section different from the first section, the first section includes a timing when a user performs a predetermined operation, the video editing unit reduces the number of frames per unit length in the second section based on the length information, the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicates the number of frames per unit length in the first section, and the second number of frames indicates the number of frames per unit length in the second section.

本発明は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置の作動方法であって、前記作動方法は、ユーザーによって実施された操作の内容を示す操作情報を前記制御部の情報受付部が受け付ける情報受付ステップと、前記制御部の情報生成部が、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、前記制御部の動画編集部が前記動画を編集する動画編集ステップと、を有し、前記動画編集ステップは、前記動画編集部が、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、前記動画編集部が、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、を有する内視鏡装置の作動方法である。 The present invention relates to an operation method for an endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, the operation method including an information receiving step in which an information receiving section of the control section receives operation information indicating the content of an operation performed by a user, an information generating step in which an information generating section of the control section generates length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing step in which a video editing section of the control section edits the video, the video editing step including editing the video by dividing the two or more frames into one or more frames in a first section and one or more frames in a second section based on the operation information. and one or more frames in a second section different from the first section, the first section including the timing when the user performed a predetermined operation; a second section editing step in which the video editing unit reduces the number of frames per unit length in the second section based on the length information; and a first section editing step in which the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.

本発明は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置のコンピュータに、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付ステップと、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、前記動画を編集する動画編集ステップと、を実行させるためのプログラムであって、前記動画編集ステップは、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、を有するプログラムである。 The present invention is a program for causing a computer of an endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, to execute an information receiving step of receiving operation information indicating the content of an operation performed by a user, an information generating step of generating length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing step of editing the video, in which the video editing step divides the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information. a classification step of classifying the first section into one or more frames between the first section and the second section, the first section including the timing at which the user performed a predetermined operation; a second section editing step of reducing the number of frames per unit length in the second section based on the length information; and a first section editing step of adjusting the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.

本発明によれば、内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムは、動画再生時のユーザーの負担を低減させることができ、かつ動画再生時にユーザーに重要な箇所を容易に確認させることができる。 According to the present invention, an endoscope device, an endoscope system, an operation method for an endoscope device, and a program can reduce the burden on a user when playing back a video, and can allow a user to easily check important points when playing back a video.

本発明の第1の実施形態による内視鏡装置の全体構成を示す斜視図である。1 is a perspective view showing an overall configuration of an endoscope apparatus according to a first embodiment of the present invention; 本発明の第1の実施形態による内視鏡装置の内部構成を示すブロック図である。1 is a block diagram showing an internal configuration of an endoscope apparatus according to a first embodiment of the present invention. 本発明の第1の実施形態における動画記録処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of a moving image recording process according to the first embodiment of the present invention. 本発明の第1の実施形態における動画編集処理の手順を示すフローチャートである。5 is a flowchart showing a procedure of a video editing process according to the first embodiment of the present invention. 本発明の第1の実施形態における動画編集処理が実行される前の動画を模式的に示す図である。1 is a diagram illustrating a moving image before a moving image editing process is executed according to a first embodiment of the present invention; 本発明の第1の実施形態における動画編集処理が実行された後の動画を模式的に示す図である。4A and 4B are diagrams illustrating a moving image after a moving image editing process has been executed according to the first embodiment of the present invention. 本発明の第1の実施形態の第1の変形例による内視鏡装置の内部構成を示すブロック図である。FIG. 2 is a block diagram showing an internal configuration of an endoscope apparatus according to a first modified example of the first embodiment of the present invention. 本発明の第1の実施形態の第1の変形例における操作情報に与えられた重要度を示す図である。FIG. 13 is a diagram showing importance levels given to operation information in the first modified example of the first embodiment of the present invention. 本発明の第1の実施形態の第2の変形例における動画編集処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a video editing process according to a second modified example of the first embodiment of the present invention. 本発明の第1の実施形態の第3の変形例における動画編集処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a video editing process according to a third modified example of the first embodiment of the present invention. 本発明の第1の実施形態の第3の変形例における処理が実行される前の動画を模式的に示す図である。FIG. 13 is a diagram illustrating a moving image before a process according to a third modified example of the first embodiment of the present invention is executed. 本発明の第1の実施形態の第3の変形例における処理が実行された後の動画を模式的に示す図である。FIG. 13 is a diagram illustrating a moving image after a process according to a third modified example of the first embodiment of the present invention is executed. 本発明の第2の実施形態による内視鏡装置の内部構成を示すブロック図である。FIG. 11 is a block diagram showing an internal configuration of an endoscope apparatus according to a second embodiment of the present invention. 本発明の第2の実施形態における挿入部の状態を示す図である。13A and 13B are diagrams illustrating a state of an insertion section in a second embodiment of the present invention. 本発明の第2の実施形態において取得されたフレームを示す図である。FIG. 4 shows frames acquired in a second embodiment of the present invention. 本発明の第2の実施形態において取得されたフレームを示す図である。FIG. 4 shows frames acquired in a second embodiment of the present invention. 本発明の第2の実施形態において取得されたフレームを示す図である。FIG. 4 shows frames acquired in a second embodiment of the present invention. 本発明の第2の実施形態における動画記録処理の手順を示すフローチャートである。10 is a flowchart showing a procedure of a moving image recording process according to a second embodiment of the present invention. 本発明の第2の実施形態の第1の変形例による内視鏡装置の内部構成を示すブロック図である。FIG. 13 is a block diagram showing an internal configuration of an endoscope apparatus according to a first modified example of the second embodiment of the present invention. 本発明の第2の実施形態の第2の変形例における動画記録処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a moving image recording process in a second modified example of the second embodiment of the present invention. 本発明の第3の実施形態による内視鏡システムの構成を示すブロック図である。FIG. 11 is a block diagram showing a configuration of an endoscope system according to a third embodiment of the present invention. 本発明の第3の実施形態における動画記録処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a moving image recording process according to a third embodiment of the present invention. 本発明の第3の実施形態による制御装置が実行する処理の手順を示すフローチャートである。10 is a flowchart showing a procedure of a process executed by a control device according to a third embodiment of the present invention. 本発明の第3の実施形態の変形例における動画記録処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a moving image recording process in a modified example of the third embodiment of the present invention. 本発明の第3の実施形態の変形例における動画記録処理の手順を示すフローチャートである。13 is a flowchart showing a procedure of a moving image recording process in a modified example of the third embodiment of the present invention. 本発明の第4の実施形態による内視鏡システムの構成を示すブロック図である。FIG. 13 is a block diagram showing a configuration of an endoscope system according to a fourth embodiment of the present invention.

以下、図面を参照し、本発明の実施形態を説明する。 The following describes an embodiment of the present invention with reference to the drawings.

(第1の実施形態)
本発明の第1の実施形態を説明する。図1は、第1の実施形態による内視鏡装置1の外観を示す。図1に示す内視鏡装置1は、挿入部2、制御部3、操作部4、および表示部5を有する。
(First embodiment)
A first embodiment of the present invention will be described below. Fig. 1 shows the appearance of an endoscope device 1 according to the first embodiment. The endoscope device 1 shown in Fig. 1 has an insertion section 2, a control section 3, an operation section 4, and a display section 5.

内視鏡装置1は、被写体(被検体)を撮像し、画像を生成する。検査者は、種々の被検体の観察を実施するために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。被検体は、工業製品である。 The endoscope device 1 captures an image of a subject (specimen) and generates an image. In order to observe various specimens, the examiner can replace the optical adapter attached to the tip of the insertion section 2, select a built-in image processing program, and add an image processing program. The specimen is an industrial product.

挿入部2は、被検体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被検体を撮像し、かつ撮像信号を制御部3に出力する。挿入部2の先端20には、光学アダプターが装着される。制御部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被検体の画像および操作メニュー等を表示画面に表示する。 The insertion section 2 is inserted into the subject. The insertion section 2 is a long, thin tube that can be bent from the tip 20 to the base end. The insertion section 2 captures an image of the subject and outputs an image signal to the control section 3. An optical adapter is attached to the tip 20 of the insertion section 2. The control section 3 is a control device that includes a storage section that stores the insertion section 2. The operation section 4 accepts user operations on the endoscope device 1. The display section 5 has a display screen, and displays images of the subject acquired by the insertion section 2, operation menus, etc. on the display screen.

操作部4は、ユーザーインタフェース(入力装置)である。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。ユーザーは、体の一部(例えば、指)または道具を使用することにより表示部5の画面をタッチする。以下では、内視鏡装置1が有する操作部4および表示部5が使用される例を説明する。内視鏡装置1と異なる外部端末が操作部または表示部を有し、その操作部または表示部が使用されてもよい。 The operation unit 4 is a user interface (input device). For example, the operation unit 4 is at least one of a button, a switch, a key, a mouse, a joystick, a touchpad, a trackball, and a touch panel. The display unit 5 is a monitor (display) such as an LCD (Liquid Crystal Display). The display unit 5 may be a touch panel. In that case, the operation unit 4 and the display unit 5 are integrated. The user touches the screen of the display unit 5 by using a part of the body (e.g., a finger) or a tool. Below, an example in which the operation unit 4 and the display unit 5 of the endoscope device 1 are used will be described. An external terminal different from the endoscope device 1 may have an operation unit or a display unit, and the operation unit or the display unit may be used.

図2は、内視鏡装置1の内部構成を示す。挿入部2および制御部3の各々の構成が図2に示されている。図2に示す挿入部2は、湾曲部21および撮像素子22を有する。制御部3は、情報受付部30、記憶部31、情報生成部32、および動画編集部33を有する。 Figure 2 shows the internal configuration of the endoscope device 1. The configurations of the insertion section 2 and the control section 3 are shown in Figure 2. The insertion section 2 shown in Figure 2 has a bending section 21 and an image sensor 22. The control section 3 has an information receiving section 30, a memory section 31, an information generating section 32, and a video editing section 33.

内視鏡装置1の概略構成を説明する。挿入部2は、被検体に挿入することができる。撮像素子22は、2枚以上のフレームを含む動画を生成する。情報受付部30は、ユーザーによって実施された操作の内容を示す操作情報を受け付ける。情報生成部32は、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さを示す長さ情報を生成する。動画編集部33は、動画を編集する。動画編集部33は、操作情報に基づいて、2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。動画編集部33は、長さ情報に基づいて、第2の区間における単位長さあたりのフレーム数を減らす。動画編集部33は、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。第1のフレーム数は、第1の区間における単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における単位長さあたりのフレーム数を示す。 The schematic configuration of the endoscope device 1 will be described. The insertion section 2 can be inserted into the subject. The image sensor 22 generates a video including two or more frames. The information receiving section 30 receives operation information indicating the content of the operation performed by the user. The information generating section 32 generates length information indicating the length of the portion of the insertion section 2 inserted into the subject when each of the two or more frames is generated. The video editing section 33 edits the video. The video editing section 33 classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information. The first section includes the timing when the user performed a predetermined operation. The video editing section 33 reduces the number of frames per unit length in the second section based on the length information. The video editing section 33 adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames. The first number of frames indicates the number of frames per unit length in the first section. The second number of frames indicates the number of frames per unit length in the second section.

内視鏡装置1の詳細な構成を説明する。湾曲部21は、挿入部2を湾曲させるためのワイヤおよび駆動装置等を有する。湾曲部21は、情報受付部30から出力された操作情報に基づいて挿入部2を湾曲させる。その操作情報は、挿入部2を湾曲させる指示(湾曲指示)を示す。 The detailed configuration of the endoscope device 1 will be described. The bending section 21 has wires and a drive device for bending the insertion section 2. The bending section 21 bends the insertion section 2 based on operation information output from the information receiving section 30. The operation information indicates an instruction to bend the insertion section 2 (bending instruction).

撮像素子22は、挿入部2の先端20に配置されている。撮像素子22は、CCDセンサまたはCMOSセンサ等のイメージセンサである。撮像素子22は、撮像を実行し、被検体の2枚以上のフレームを連続的に生成する。その2枚以上のフレームの各々は画像である。その2枚以上のフレームは動画を構成する。撮像素子22は、生成された各フレームを制御部3に出力する。また、撮像素子22は、情報受付部30から出力された操作情報に基づいて1枚以上の静止画を生成し、生成された静止画を制御部3に出力する。その操作情報は、静止画を取得する指示(静止画取得指示)を示す。 The imaging element 22 is disposed at the tip 20 of the insertion section 2. The imaging element 22 is an image sensor such as a CCD sensor or a CMOS sensor. The imaging element 22 performs imaging and continuously generates two or more frames of the subject. Each of the two or more frames is an image. The two or more frames constitute a video. The imaging element 22 outputs each generated frame to the control unit 3. The imaging element 22 also generates one or more still images based on operation information output from the information receiving unit 30, and outputs the generated still images to the control unit 3. The operation information indicates an instruction to acquire a still image (still image acquisition instruction).

ユーザーは、操作部4を操作することにより、操作情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。情報受付部30は、操作部4から出力された操作情報を受け付ける。操作情報は、動画の記録に関する指示、静止画取得指示、または湾曲指示である。動画の記録に関する指示は、動画の記録を開始するための記録開始指示または動画の記録を終了するための記録終了指示である。操作情報の他の例については、第1の実施形態の第1の変形例において説明する。 The user inputs operation information to the endoscope device 1 by operating the operation unit 4. The operation unit 4 outputs the information input by the user. The information receiving unit 30 receives the operation information output from the operation unit 4. The operation information is an instruction related to video recording, an instruction to acquire a still image, or an instruction to bend. The instruction related to video recording is a recording start instruction to start video recording or a recording end instruction to end video recording. Other examples of operation information will be described in the first modified example of the first embodiment.

情報受付部30が動画の記録に関する指示を除く操作情報を受け付けたとき、情報受付部30はその操作情報を動画のフレームに付加する。情報受付部30が静止画取得指示を受け付けたとき、情報受付部30は静止画取得指示を撮像素子22に出力する。静止画取得指示が情報受付部30から出力されたとき、撮像素子22は1枚以上の静止画を生成する。情報受付部30が湾曲指示を受け付けたとき、情報受付部30は湾曲指示を湾曲部21に出力する。湾曲指示が情報受付部30から出力されたとき、湾曲部21は挿入部2を湾曲させる。 When the information receiving unit 30 receives operation information other than instructions related to video recording, the information receiving unit 30 adds the operation information to a frame of the video. When the information receiving unit 30 receives a still image acquisition instruction, the information receiving unit 30 outputs the still image acquisition instruction to the imaging element 22. When the still image acquisition instruction is output from the information receiving unit 30, the imaging element 22 generates one or more still images. When the information receiving unit 30 receives a bending instruction, the information receiving unit 30 outputs the bending instruction to the bending section 21. When the bending instruction is output from the information receiving unit 30, the bending section 21 bends the insertion section 2.

記憶部31は、揮発性または不揮発性の記録媒体である。例えば、記憶部31は、RAM(Random Access Memory)、DRAM(DynamicRandom Access Memory)、SRAM(Static Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびフラッシュメモリの少なくとも1つである。 The storage unit 31 is a volatile or non-volatile recording medium. For example, the storage unit 31 is at least one of a RAM (Random Access Memory), a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), a ROM (Read Only Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a flash memory.

記憶部31は、撮像素子22によって生成された2枚以上のフレームを含む動画ファイルを記憶する。操作情報がその2枚以上のフレームのうちの1枚以上に付加されている。また、長さ情報がその2枚以上のフレームの各々に付加されている。記憶部31は、撮像素子22によって生成された1枚以上の静止画も記憶する。 The storage unit 31 stores a video file including two or more frames generated by the imaging element 22. Operation information is added to one or more of the two or more frames. Furthermore, length information is added to each of the two or more frames. The storage unit 31 also stores one or more still images generated by the imaging element 22.

記憶部31は、内視鏡装置1への装着と内視鏡装置1からの取り外しとが可能な記録媒体であってもよい。したがって、内視鏡装置1が記憶部31を有する必要はない。 The memory unit 31 may be a recording medium that can be attached to and detached from the endoscope device 1. Therefore, the endoscope device 1 does not need to have the memory unit 31.

情報生成部32は、撮像素子22によって生成された2枚以上のフレームを使用する画像処理を実行する。その画像処理は、Visual SLAMまたはstructure from motion(SfM)等である。情報生成部32は、その画像処理において自己位置推定を実行することにより、挿入部2の先端20の位置を推定する。また、情報生成部32は、位置情報を生成する。位置情報は、座標情報および長さ情報を含む。情報生成部32は、位置情報を各フレームに付加する。 The information generating unit 32 performs image processing using two or more frames generated by the imaging element 22. The image processing is Visual SLAM or structure from motion (SfM), etc. The information generating unit 32 estimates the position of the tip 20 of the insertion unit 2 by performing self-position estimation in the image processing. The information generating unit 32 also generates position information. The position information includes coordinate information and length information. The information generating unit 32 adds the position information to each frame.

座標情報は、2枚以上のフレームの各々が生成されたときの挿入部2の先端20の座標(位置)を示す。撮像素子22は、先端20に配置されている。そのため、座標情報は、2枚以上のフレームの各々が生成されたときの撮像素子22の座標(位置)を示す。 The coordinate information indicates the coordinates (position) of the tip 20 of the insertion section 2 when each of the two or more frames is generated. The image sensor 22 is disposed at the tip 20. Therefore, the coordinate information indicates the coordinates (position) of the image sensor 22 when each of the two or more frames is generated.

長さ情報は、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さ(挿入長)を示す。情報生成部32は、座標情報に基づいて挿入長を算出する。 The length information indicates the length (insertion length) of the portion of the insertion section 2 that is inserted into the subject when each of the two or more frames is generated. The information generating unit 32 calculates the insertion length based on the coordinate information.

第1の実施形態における挿入長は、先端20の第1の位置と先端20の第2の位置との距離を示す。第1の位置は、基準フレームが生成されたときの先端20の位置を示す。第2の位置は、基準フレームよりも1枚以上後のフレームが生成されたときの先端20の位置を示す。 In the first embodiment, the insertion length indicates the distance between a first position of the tip 20 and a second position of the tip 20. The first position indicates the position of the tip 20 when the reference frame is generated. The second position indicates the position of the tip 20 when a frame that is one or more frames later than the reference frame is generated.

動画編集部33は、動画を処理する。情報受付部30が記録開始指示を受け付けたとき、動画編集部33は動画の記録を開始する。情報受付部30が記録終了指示を受け付けたとき、動画編集部33は動画の記録を終了する。動画の記録が終了した後、動画編集部33は、動画編集処理を実行する。動画編集部33は、動画編集処理において動画ファイルを編集する。 The video editing unit 33 processes the video. When the information receiving unit 30 receives a recording start instruction, the video editing unit 33 starts recording the video. When the information receiving unit 30 receives a recording end instruction, the video editing unit 33 ends recording the video. After the video recording ends, the video editing unit 33 executes a video editing process. The video editing unit 33 edits the video file in the video editing process.

情報受付部30、情報生成部32、および動画編集部33は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。情報受付部30、情報生成部32、および動画編集部33は、1つまたは複数のプロセッサを含んでもよい。情報受付部30、情報生成部32、および動画編集部33は、1つまたは複数の論理回路を含んでもよい。 The information receiving unit 30, the information generating unit 32, and the video editing unit 33 may be composed of at least one of a processor and a logic circuit. For example, the processor is at least one of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit). For example, the logic circuit is at least one of an ASIC (Application Specific Integrated Circuit) and an FPGA (Field-Programmable Gate Array). The information receiving unit 30, the information generating unit 32, and the video editing unit 33 may include one or more processors. The information receiving unit 30, the information generating unit 32, and the video editing unit 33 may include one or more logic circuits.

内視鏡装置1のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、情報受付部30、情報生成部32、および動画編集部33の動作を規定する命令を含む。つまり、情報受付部30、情報生成部32、および動画編集部33の機能はソフトウェアにより実現されてもよい。 The computer of the endoscope device 1 may load a program and execute the loaded program. The program includes instructions that define the operation of the information receiving unit 30, the information generating unit 32, and the video editing unit 33. In other words, the functions of the information receiving unit 30, the information generating unit 32, and the video editing unit 33 may be realized by software.

上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により内視鏡装置1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。 The above program may be provided by a "computer-readable recording medium" such as a flash memory. The program may be transmitted from a computer that holds the program to the endoscope device 1 via a transmission medium or by a transmission wave in the transmission medium. The "transmission medium" that transmits the program is a medium that has the function of transmitting information. Media that have the function of transmitting information include networks (communication networks) such as the Internet and communication lines (communication lines) such as telephone lines. The above program may realize some of the functions described above. Furthermore, the above program may be a difference file (difference program). The above function may be realized by a combination of a program already recorded in the computer and a difference program.

図3を使用することにより、第1の実施形態における動画記録処理について説明する。図3は、動画記録処理の手順を示す。 The video recording process in the first embodiment will be explained using Figure 3. Figure 3 shows the steps of the video recording process.

撮像素子22は連続的にフレームを生成する。表示部5は、フレームを連続的に表示することにより、被検体のリアルタイム映像を表示する。 The image sensor 22 continuously generates frames. The display unit 5 continuously displays the frames to display a real-time image of the subject.

情報受付部30が記録開始指示を受け付けるまで動画の記録は開始されない。ユーザーが、操作部4を操作することにより記録開始指示を内視鏡装置1に入力したとき、情報受付部30は記録開始指示を受け付ける(ステップS100)。このとき、動画の記録が開始される。 Video recording does not start until the information receiving unit 30 receives a recording start instruction. When the user inputs a recording start instruction to the endoscope device 1 by operating the operation unit 4, the information receiving unit 30 receives the recording start instruction (step S100). At this time, video recording starts.

動画の記録が開始された後、撮像素子22から出力されたフレームは記憶部31に保存される(ステップS101)。 After video recording has started, the frames output from the image sensor 22 are stored in the memory unit 31 (step S101).

ユーザーは、操作部4を操作することにより、操作情報を内視鏡装置1に入力する。その操作情報は、静止画取得指示または湾曲指示である。ステップS101の後、情報受付部30は操作情報を受け付ける(ステップS102)。ステップS101が実行される前にステップS102が実行されてもよい。 The user inputs operation information to the endoscope device 1 by operating the operation unit 4. The operation information is a still image acquisition instruction or a bending instruction. After step S101, the information receiving unit 30 receives the operation information (step S102). Step S102 may be executed before step S101 is executed.

ステップS102の後、情報受付部30は、操作情報をステップS101において記憶部31に保存されたフレームに付加する。例えば、情報受付部30は操作情報をフレームに埋め込む(ステップS103)。 After step S102, the information receiving unit 30 adds the operation information to the frame stored in the storage unit 31 in step S101. For example, the information receiving unit 30 embeds the operation information in the frame (step S103).

操作情報は、記憶部31に保存されたフレームから分離されていてもよい。操作情報とフレームとを互いに関連付ける情報がフレームに付加されてもよい。 The operation information may be separated from the frame stored in the storage unit 31. Information that associates the operation information with the frame may be added to the frame.

ユーザーが操作情報を内視鏡装置1に入力しない場合、ステップS102およびステップS103は実行されない。そのため、操作情報が2枚以上のフレームの全てに付加されるとは限らない。 If the user does not input operation information to the endoscope device 1, steps S102 and S103 are not executed. Therefore, operation information may not necessarily be added to all of two or more frames.

ユーザーが、所望のタイミングで操作部4を操作することにより記録終了指示を内視鏡装置1に入力したとき、情報受付部30は記録終了指示を受け付ける(ステップS104)。情報受付部30が記録終了指示を受け付けるまで、ステップS101からステップS103が繰り返される。 When the user inputs a recording end instruction to the endoscope device 1 by operating the operation unit 4 at a desired timing, the information receiving unit 30 receives the recording end instruction (step S104). Steps S101 to S103 are repeated until the information receiving unit 30 receives the recording end instruction.

情報受付部30が記録終了指示を受け付けた後、動画編集部33は、記憶部31に保存されたフレームを含む動画ファイルを生成する(ステップS105)。動画ファイルは記憶部31に保存される。 After the information receiving unit 30 receives the instruction to end recording, the video editing unit 33 generates a video file that includes the frames stored in the storage unit 31 (step S105). The video file is stored in the storage unit 31.

ステップS105の後、情報生成部32は、動画ファイルに含まれる2枚以上のフレームを使用することにより自己位置推定を実行する。これにより、情報生成部32は、その2枚以上のフレームの各々に対する位置情報を生成する。情報生成部32は、生成された位置情報を各フレームに付加する。例えば、情報生成部32は位置情報をフレームに埋め込む(ステップS106)。 After step S105, the information generating unit 32 performs self-location estimation by using two or more frames included in the video file. As a result, the information generating unit 32 generates location information for each of the two or more frames. The information generating unit 32 adds the generated location information to each frame. For example, the information generating unit 32 embeds the location information in the frame (step S106).

位置情報は、記憶部31に保存されたフレームから分離されていてもよい。位置情報とフレームとを互いに関連付ける情報がフレームに付加されてもよい。 The location information may be separate from the frame stored in the memory unit 31. Information that associates the location information with the frame may be added to the frame.

ステップS106の後、動画編集部33は動画編集処理を実行する(ステップS107)。動画編集処理が終了したとき、動画記録処理が終了する。 After step S106, the video editing unit 33 executes the video editing process (step S107). When the video editing process ends, the video recording process ends.

図4を使用することにより、ステップS107における動画編集処理について説明する。図4は、動画編集処理の手順を示す。 The video editing process in step S107 will be explained using Figure 4. Figure 4 shows the steps of the video editing process.

動画編集部33は、動画のフレームに付加されている操作情報に基づいて、動画の2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する(ステップS107a)。 The video editing unit 33 classifies two or more frames of the video into one or more frames in a first section and one or more frames in a second section different from the first section, based on the operation information added to the frames of the video (step S107a).

第1の実施形態における所定の操作は、静止画を取得する操作、または挿入部2を湾曲させる操作である。言い換えると、所定の操作は、静止画取得指示を内視鏡装置1に入力する操作、または湾曲指示を内視鏡装置1に入力する操作である。 The predetermined operation in the first embodiment is an operation of acquiring a still image or an operation of bending the insertion portion 2. In other words, the predetermined operation is an operation of inputting a still image acquisition instruction to the endoscope device 1 or an operation of inputting a bending instruction to the endoscope device 1.

ユーザーが注目する領域が画像に写っているとき、ユーザーは、その領域の静止画を取得するために静止画取得指示を内視鏡装置1に入力する。あるいは、その領域が画像に写っているとき、ユーザーは、その領域を詳細に観察するために湾曲指示を内視鏡装置1に入力する。静止画取得指示または湾曲指示が内視鏡装置1に入力されたとき、ユーザーが注目する領域が画像に写っている可能性が高い。 When an area that the user is interested in is shown in the image, the user inputs a still image acquisition instruction to the endoscope device 1 to acquire a still image of that area. Alternatively, when that area is shown in the image, the user inputs a bending instruction to the endoscope device 1 to observe that area in detail. When a still image acquisition instruction or a bending instruction is input to the endoscope device 1, there is a high possibility that the area that the user is interested in is shown in the image.

第1の区間および第2の区間の各々は時間区間(期間)である。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。第1の区間は、ユーザーが所定の操作を実施した期間と対応する。第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したタイミング(操作タイミング)と対応するタイミングで生成されたフレームを含む。第1の区間における1枚以上のフレームは、ユーザーが注目する領域が写っている画像と対応する。撮像素子22は各フレーム期間においてフレームを生成する。例えば、第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したフレーム期間に生成されたフレームを含む。 The first interval and the second interval are each a time interval (period). The first interval includes the timing when the user performs a specified operation. The first interval corresponds to the period during which the user performs the specified operation. One or more frames in the first interval include frames generated at a timing corresponding to the timing (operation timing) when the user performs the specified operation. The one or more frames in the first interval correspond to an image showing an area that the user focuses on. The image sensor 22 generates frames in each frame period. For example, the one or more frames in the first interval include frames generated during the frame period during which the user performs the specified operation.

第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームに加えて、そのフレームの前および後のフレームを含んでもよい。例えば、第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームの前の1枚以上のフレームを含んでもよい。言い換えると、第1の区間における1枚以上のフレームは、第1の挿入長と第2の挿入長との間の挿入長における1枚以上のフレームを含んでもよい。第1の挿入長は、操作タイミングで生成されたフレームにおける挿入長を示す。第2の挿入長は、第1の挿入長よりも所定の長さだけ短い。 The one or more frames in the first section may include the frame generated at the operation timing as well as frames before and after the frame. For example, the one or more frames in the first section may include one or more frames before the frame generated at the operation timing. In other words, the one or more frames in the first section may include one or more frames at an insertion length between a first insertion length and a second insertion length. The first insertion length indicates the insertion length in the frame generated at the operation timing. The second insertion length is shorter than the first insertion length by a predetermined length.

第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームの後の1枚以上のフレームを含んでもよい。言い換えると、第1の区間における1枚以上のフレームは、第1の挿入長と第3の挿入長との間の挿入長における1枚以上のフレームを含んでもよい。第1の挿入長は、操作タイミングで生成されたフレームにおける挿入長を示す。第3の挿入長は、第1の挿入長よりも所定の長さだけ長い。 The one or more frames in the first section may include one or more frames following the frame generated at the operation timing. In other words, the one or more frames in the first section may include one or more frames at an insertion length between the first insertion length and the third insertion length. The first insertion length indicates the insertion length in the frame generated at the operation timing. The third insertion length is a predetermined length longer than the first insertion length.

ユーザーは、操作部4を操作することにより、被検体の大きさを示す情報を内視鏡装置1に入力してもよい。あるいは、ユーザーは、操作部4を操作することにより、第1の区間の長さを示す情報を内視鏡装置1に入力してもよい。動画編集部33は、内視鏡装置1に入力された情報に基づいて第1の区間の長さを設定してもよい。 The user may input information indicating the size of the subject to the endoscope device 1 by operating the operation unit 4. Alternatively, the user may input information indicating the length of the first section to the endoscope device 1 by operating the operation unit 4. The video editing unit 33 may set the length of the first section based on the information input to the endoscope device 1.

第2の区間は、ユーザーが所定の操作を実施していない期間と対応する。第2の区間は、ユーザーが所定の操作を実施したタイミングを含まない。第2の区間における1枚以上のフレームは、ユーザーが注目する領域が写っていない画像と対応する。 The second section corresponds to a period during which the user does not perform a specified operation. The second section does not include a time when the user performs a specified operation. One or more frames in the second section correspond to an image that does not include an area that the user focuses on.

例えば、第2の区間は、第1の区間よりも時間的に長い。第2の区間におけるフレームの数は、第1の区間におけるフレームの数よりも多い。 For example, the second interval is longer in time than the first interval. The number of frames in the second interval is greater than the number of frames in the first interval.

動画編集部33は、後述するステップS107bおよびステップS107cにおいて、挿入長の単位長さあたりのフレーム数を調整する。単位長さは、挿入長の単位系(座標系)における所定の長さを示す。長さ情報が各フレームに付加されているため、挿入長が各フレームと関連付けられている。挿入長の値は、挿入長の単位系における各フレームの位置を示す。例えば、挿入長L1がフレームF1と関連付けられ、かつ挿入長L2がフレームF2と関連付けられている。挿入長L1と挿入長L2との差が単位長さと同じである場合、単位長さあたりのフレーム数は、フレームF1からフレームF2までのフレームの数である。 The video editing unit 33 adjusts the number of frames per unit length of the insertion length in steps S107b and S107c described below. The unit length indicates a predetermined length in the unit system (coordinate system) of the insertion length. Since length information is added to each frame, the insertion length is associated with each frame. The value of the insertion length indicates the position of each frame in the unit system of the insertion length. For example, the insertion length L1 is associated with frame F1, and the insertion length L2 is associated with frame F2. If the difference between the insertion length L1 and the insertion length L2 is the same as the unit length, the number of frames per unit length is the number of frames from frame F1 to frame F2.

ステップS107aの後、動画編集部33は、動画の各フレームに付加されている長さ情報に基づいて、第2の区間におけるフレーム数を調整する。具体的には、動画編集部33は、挿入長の単位長さあたりのフレーム数を減らす(ステップS107b)。 After step S107a, the video editing unit 33 adjusts the number of frames in the second section based on the length information added to each frame of the video. Specifically, the video editing unit 33 reduces the number of frames per unit length of the insertion length (step S107b).

第2の区間におけるフレーム数が減るため、第2の区間における動画の再生時間が短くなる。そのため、動画を閲覧するユーザーの負担が減る。 Because the number of frames in the second section is reduced, the playback time of the video in the second section is shortened. This reduces the burden on the user viewing the video.

動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さ(挿入速さ)が一定となるように第2の区間におけるフレーム数を調整してもよい。この場合、動画編集部33は、フレームを間引いてもよいし、またはフレームを追加してもよい。動画編集部33は、第2の区間における動画の再生時の挿入速さが第1の区間における動画の再生時の挿入速さよりも速く、かつ時間の経過とともに変動するように第2の区間におけるフレーム数を調整してもよい。 The video editing unit 33 may adjust the number of frames in the second section so that the speed at which the insertion unit 2 is inserted into the subject (insertion speed) is constant when the video is played back. In this case, the video editing unit 33 may thin out frames or add frames. The video editing unit 33 may adjust the number of frames in the second section so that the insertion speed when the video is played back in the second section is faster than the insertion speed when the video is played back in the first section and varies over time.

第2の区間の少なくとも一部において挿入長の単位長さあたりのフレーム数が所定の枚数よりも大きい場合、動画編集部33はフレームを間引く。つまり、動画編集部33は第2の区間におけるフレームの一部を削除する。例えば、第2の区間における連続する2枚以上のフレーム間の被写体の移動量が小さい場合、動画編集部33はその2枚以上のフレームの一部を削除する。 If the number of frames per unit length of the insertion length is greater than a predetermined number in at least a portion of the second section, the video editing unit 33 thins out frames. In other words, the video editing unit 33 deletes some of the frames in the second section. For example, if the amount of movement of the subject between two or more consecutive frames in the second section is small, the video editing unit 33 deletes some of those two or more frames.

第2の区間の一部において挿入長の単位長さあたりのフレーム数が所定の枚数よりも小さい場合、動画編集部33はフレームを追加する。動画編集部33は、第2の区間における1枚以上のフレームを複製し、かつその1枚以上のフレームを第2の区間に追加してもよい。動画編集部33は、第2の区間における2枚以上のフレームに基づいて第2の区間にフレームを補間してもよい。フレームが第2の区間の一部に追加される場合であっても、第2の区間の全体におけるフレームの数は減る。 If the number of frames per unit length of the insertion length in a portion of the second section is smaller than a predetermined number, the video editing unit 33 adds frames. The video editing unit 33 may duplicate one or more frames in the second section and add the one or more frames to the second section. The video editing unit 33 may interpolate frames in the second section based on two or more frames in the second section. Even when frames are added to a portion of the second section, the number of frames in the entire second section is reduced.

第2の区間における動画が再生されたとき、画像に写っている被写体は一定の速さで移動する。そのため、動画を閲覧するユーザーの負担が減る。 When the video in the second section is played, the subject in the image moves at a constant speed. This reduces the burden on the user viewing the video.

ステップS107bの後、動画編集部33は、第1のフレーム数がステップS107bで調整された第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する(ステップS107c)。第1のフレーム数は、第1の区間における挿入長の単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における挿入長の単位長さあたりのフレーム数を示す。ステップS107cが実行されたとき、動画編集処理が終了する。 After step S107b, the video editing unit 33 adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames adjusted in step S107b (step S107c). The first number of frames indicates the number of frames per unit length of the insertion length in the first section. The second number of frames indicates the number of frames per unit length of the insertion length in the second section. When step S107c is executed, the video editing process ends.

例えば、動画編集部33は、第1の区間におけるフレームの一部を削除することにより、第1の区間におけるフレーム数を減らす。あるいは、動画編集部33は、フレームを第1の区間に追加することにより、第1の区間におけるフレーム数を増加させる。 For example, the video editing unit 33 reduces the number of frames in the first section by deleting some of the frames in the first section. Alternatively, the video editing unit 33 increases the number of frames in the first section by adding frames to the first section.

動画編集部33は、第1の区間の少なくとも一部において挿入部2が静止するように第1の区間におけるフレーム数を調整してもよい。動画編集部33は、第1の区間における動画において、挿入部2が徐々に遅くなり、挿入部2が静止するように第1の区間におけるフレーム数を調整してもよい。さらに、動画編集部33は、第1の区間における動画において、挿入部2が静止した後に挿入部2が徐々に速くなるように第1の区間におけるフレーム数を調整してもよい。 The video editing unit 33 may adjust the number of frames in the first section so that the insertion unit 2 remains still for at least a part of the first section. The video editing unit 33 may adjust the number of frames in the first section so that, in the video in the first section, the insertion unit 2 gradually slows down and the insertion unit 2 remains still. Furthermore, the video editing unit 33 may adjust the number of frames in the first section so that, in the video in the first section, the insertion unit 2 gradually speeds up after the insertion unit 2 remains still.

第1のフレーム数が第2のフレーム数よりも大きいため、第1の被写体は第2の被写体よりも遅い。第1の被写体は、第1の区間におけるフレームに写っている。第2の被写体は、第2の区間におけるフレームに写っている。そのため、第1の区間における動画がスローモーションで再生される。動画の閲覧者は、検査者が注目した重要な箇所を容易に確認することができる。 Because the first number of frames is greater than the second number of frames, the first subject is slower than the second subject. The first subject is captured in frames in the first section. The second subject is captured in frames in the second section. Therefore, the video in the first section is played in slow motion. A viewer of the video can easily check the important points that the inspector focused on.

ステップS107bおよびステップS107cの順番は、図4に示す順番に限らない。ステップS107bが実行される前にステップS107cが実行されてもよい。その場合、ステップS107bにおける最終的な第2のフレーム数が予め算出され、かつその第2のフレーム数がステップS107cにおいて使用される。 The order of steps S107b and S107c is not limited to the order shown in FIG. 4. Step S107c may be executed before step S107b is executed. In that case, the final second number of frames in step S107b is calculated in advance, and the second number of frames is used in step S107c.

図5は、動画編集処理が実行される前の動画を模式的に示す。図6は、動画編集処理が実行された後の動画を模式的に示す。 Figure 5 shows a schematic diagram of a video before the video editing process is performed. Figure 6 shows a schematic diagram of a video after the video editing process is performed.

挿入部2は、図5および図6における右方向に挿入される。図5および図6に示す線L11は、被検体IT11に挿入された先端20の移動の軌跡を示す。線L11上の複数のマークは、撮像素子22がフレームを生成したときの先端20の位置を示す。 The insertion portion 2 is inserted in the right direction in Figs. 5 and 6. Line L11 shown in Figs. 5 and 6 indicates the trajectory of movement of the tip 20 inserted into the subject IT11. Multiple marks on line L11 indicate the position of the tip 20 when the image sensor 22 generates a frame.

図5および図6における位置P11は、ユーザーが所定の操作を実施したときの先端20の位置を示す。このとき、撮像素子22はフレームを生成する。図5および図6において第1の区間SE11および第2の区間SE12が示されている。第1の区間SE11における動画は、先端20が位置P11にあるときに取得されたフレームを含む。また、第1の区間SE11における動画は、先端20が位置P11の近傍にあるときに取得された2枚以上のフレームを含む。第2の区間SE12における動画は、先端20が位置P11からある程度離れた位置にあるときに取得された2枚以上のフレームを含む。 Position P11 in Figures 5 and 6 indicates the position of tip 20 when the user performs a specified operation. At this time, image sensor 22 generates frames. A first interval SE11 and a second interval SE12 are shown in Figures 5 and 6. The video in the first interval SE11 includes frames acquired when tip 20 is at position P11. The video in the first interval SE11 also includes two or more frames acquired when tip 20 is near position P11. The video in the second interval SE12 includes two or more frames acquired when tip 20 is at a position some distance away from position P11.

図5および図6に示す例では、動画編集部33は、第1の区間SE11および第2の区間SE12の各々におけるフレーム数を減らす。動画編集部33は、挿入部2が被検体に挿入される速さが一定となるように第2の区間SE12におけるフレーム数を調整する。動画編集部33は、第1の区間SE11における第1のフレーム数が第2の区間SE12における第2のフレーム数よりも大きくなるように第1の区間SE11におけるフレーム数を調整する。第1のフレーム数および第2のフレーム数は、挿入長の単位長さあたりのフレーム数を示す。 In the examples shown in Figures 5 and 6, the video editing unit 33 reduces the number of frames in each of the first section SE11 and the second section SE12. The video editing unit 33 adjusts the number of frames in the second section SE12 so that the speed at which the insertion section 2 is inserted into the subject is constant. The video editing unit 33 adjusts the number of frames in the first section SE11 so that the first number of frames in the first section SE11 is greater than the second number of frames in the second section SE12. The first number of frames and the second number of frames indicate the number of frames per unit length of the insertion length.

本発明の各態様の内視鏡装置の作動方法は、情報受付ステップ、情報生成ステップ、および動画編集ステップを有する。情報受付部30は、情報受付ステップ(ステップS102)において、ユーザーによって実施された操作の内容を示す操作情報を受け付ける。情報生成部32は、情報生成ステップ(ステップS106)において、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さを示す長さ情報を生成する。動画編集部33は、動画編集ステップ(ステップS107)において、動画を編集する。動画編集ステップは、分類ステップ、第2の区間編集ステップ、および第1の区間編集ステップを有する。動画編集部33は、分類ステップ(ステップS107a)において、操作情報に基づいて、2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。動画編集部33は、第2の区間編集ステップ(ステップS107b)において、長さ情報に基づいて、第2の区間における単位長さあたりのフレーム数を減らす。動画編集部33は、第1の区間編集ステップ(ステップS107c)において、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。第1のフレーム数は、第1の区間における単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における単位長さあたりのフレーム数を示す。 The operation method of the endoscope device of each aspect of the present invention has an information receiving step, an information generating step, and a video editing step. In the information receiving step (step S102), the information receiving unit 30 receives operation information indicating the content of the operation performed by the user. In the information generating step (step S106), the information generating unit 32 generates length information indicating the length of the portion of the insertion unit 2 inserted into the subject when each of the two or more frames is generated. In the video editing step (step S107), the video editing unit 33 edits the video. The video editing step has a classification step, a second section editing step, and a first section editing step. In the classification step (step S107a), the video editing unit 33 classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information. The first section includes the timing when the user performs a predetermined operation. In a second section editing step (step S107b), the video editing unit 33 reduces the number of frames per unit length in the second section based on the length information. In a first section editing step (step S107c), the video editing unit 33 adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames. The first number of frames indicates the number of frames per unit length in the first section. The second number of frames indicates the number of frames per unit length in the second section.

本発明の各態様は、次の変形例を含んでもよい。動画編集部33は、第2の区間における動画が再生されている状態における挿入部2が被検体に挿入される見かけの速さが一定となるように第2の区間におけるフレーム数を調整する。 Each aspect of the present invention may include the following modified example: The video editing unit 33 adjusts the number of frames in the second section so that the apparent speed at which the insertion unit 2 is inserted into the subject while the video in the second section is being played back is constant.

本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームを使用することにより、2枚以上のフレームの各々が生成されたタイミングにおける撮像素子22の位置を推定し、推定された位置に基づいて挿入長を推定する。 Each aspect of the present invention may include the following modified examples: The information generating unit 32 uses two or more frames to estimate the position of the image sensor 22 at the timing when each of the two or more frames is generated, and estimates the insertion length based on the estimated position.

本発明の各態様は、次の変形例を含んでもよい。第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したタイミングにおいて生成された1枚のフレームと、そのタイミングよりも前に生成された1枚以上のフレームと、そのタイミングよりも後に生成された1枚以上のフレームとを含む。 Each aspect of the present invention may include the following modified examples: The one or more frames in the first section include one frame generated at the timing when the user performs a predetermined operation, one or more frames generated before that timing, and one or more frames generated after that timing.

第1の実施形態において動画編集部33は、第2の区間における挿入長の単位長さあたりのフレーム数を減らす。また、動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さが一定となるように第2の区間におけるフレーム数を調整する。そのため、内視鏡装置1は、動画再生時のユーザーの負担を低減させることができる。第1の実施形態において動画編集部33は、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。そのため、内視鏡装置1は、動画再生時にユーザーに重要な箇所を容易に確認させることができる。 In the first embodiment, the video editing unit 33 reduces the number of frames per unit length of the insertion length in the second section. In addition, the video editing unit 33 adjusts the number of frames in the second section so that the speed at which the insertion portion 2 is inserted into the subject is constant when the video is played back. Therefore, the endoscope device 1 can reduce the burden on the user when playing back the video. In the first embodiment, the video editing unit 33 adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames. Therefore, the endoscope device 1 can allow the user to easily check important points when playing back the video.

動画の閲覧者は、検査が予め定められた手順で実施されているか否かを確認する。閲覧者は、複雑な構造を持つ被検体において予め定められた箇所が検査されたか否かを確認する。第1の実施形態における編集が実施されていない動画では、挿入部2が被検体に挿入される速さが様々である。例えば、検査者がマニュアルまたは図面を確認するために作業が実施されない場合がある。その場合、挿入部2は静止している。 The viewer of the video checks whether the examination is being performed according to a predetermined procedure. The viewer checks whether predetermined locations on a subject having a complex structure have been examined. In the video that has not been edited in the first embodiment, the speed at which the insertion part 2 is inserted into the subject varies. For example, there are cases in which the work is not performed because the examiner is checking a manual or a drawing. In such cases, the insertion part 2 is stationary.

第1の実施形態における編集が実施されずに一定の速さで早送り再生が実行された場合、挿入作業が実施されていない期間における動画は見やすくなる。一方、スムーズな挿入作業が実施されている期間における動画が再生されたとき、挿入部2が速く挿入される。そのため、予め定められた箇所が検査されたか否かを閲覧者が確認することが難しい。内視鏡装置1は、被検体に挿入される挿入部2の実際の速さによらず、第2の区間における動画再生時において挿入部2が被検体に挿入される速さを一定にする。そのため、動画の閲覧者は、検査が所定の手順に従って実施されているか否かを容易に判断することができる。 When fast-forward playback is performed at a constant speed without editing in the first embodiment, the video is easy to view during periods when insertion is not being performed. On the other hand, when a video is played during a period when smooth insertion is being performed, the insertion portion 2 is inserted quickly. Therefore, it is difficult for the viewer to confirm whether or not a predetermined location has been examined. The endoscope device 1 keeps the speed at which the insertion portion 2 is inserted into the subject constant during playback of the video in the second section, regardless of the actual speed at which the insertion portion 2 is inserted into the subject. Therefore, the viewer of the video can easily determine whether or not the examination is being performed according to a predetermined procedure.

第1の区間におけるフレームには、ユーザーが注目する領域が写っている可能性が高い。第1の区間における動画は、スローモーションで再生される。そのため、動画の閲覧者は、検査者が注目した重要な箇所を容易に確認することができる。一方、第2の区間におけるフレームには、ユーザーが注目する領域が写っている可能性が低い。第2の区間における動画は、挿入部2の速さが実際の速さよりも高くなるように再生される。そのため、動画の閲覧者は、動画を短時間で閲覧することができる。 The frames in the first section are likely to show the area that the user focuses on. The video in the first section is played in slow motion. This allows the viewer of the video to easily check the important points that the examiner focused on. On the other hand, the frames in the second section are unlikely to show the area that the user focuses on. The video in the second section is played so that the speed of the insertion part 2 is faster than the actual speed. This allows the viewer of the video to view the video in a short time.

大量の動画が長期間、検査のエビデンスとして保管される場合がある。その場合、動画ファイルのデータ量を減らすことが望ましい。例えば、ユーザーが動画記録中に検査を一時的に中断した場合、挿入部2の位置の変化が少ない期間が存在する。その期間におけるフレーム数が減るため、不要なデータの量が減る。内視鏡装置1は、重要なデータを残し、かつ動画ファイルのデータ量を減らすことができる。 There are cases where a large amount of video is stored for a long period of time as evidence of an examination. In such cases, it is desirable to reduce the amount of data in the video file. For example, if a user temporarily pauses an examination while recording a video, there will be a period during which there is little change in the position of the insertion portion 2. Because the number of frames during that period is reduced, the amount of unnecessary data is reduced. The endoscope device 1 can reduce the amount of data in the video file while retaining important data.

(第1の実施形態の第1の変形例)
本発明の第1の実施形態の第1の変形例を説明する。図2に示す内視鏡装置1は、図7に示す内視鏡装置1aに変更される。図7は、内視鏡装置1aの構成を示す。図2に示す制御部3は、図7に示す制御部3aに変更される。図2に示す構成と同じ構成の説明を省略する。
(First Modification of the First Embodiment)
A first modified example of the first embodiment of the present invention will be described. The endoscope device 1 shown in Fig. 2 is changed to an endoscope device 1a shown in Fig. 7. Fig. 7 shows the configuration of the endoscope device 1a. The control unit 3 shown in Fig. 2 is changed to a control unit 3a shown in Fig. 7. A description of the same configuration as that shown in Fig. 2 will be omitted.

制御部3aは、情報受付部30、記憶部31、情報生成部32、動画編集部33、および処理部34を有する。情報受付部30、情報生成部32、動画編集部33、および処理部34は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。情報受付部30、情報生成部32、動画編集部33、および処理部34は、1つまたは複数のプロセッサを含んでもよい。情報受付部30、情報生成部32、動画編集部33、および処理部34は、1つまたは複数の論理回路を含んでもよい。 The control unit 3a has an information receiving unit 30, a memory unit 31, an information generating unit 32, a video editing unit 33, and a processing unit 34. The information receiving unit 30, the information generating unit 32, the video editing unit 33, and the processing unit 34 may be composed of at least one of a processor and a logic circuit. The information receiving unit 30, the information generating unit 32, the video editing unit 33, and the processing unit 34 may include one or more processors. The information receiving unit 30, the information generating unit 32, the video editing unit 33, and the processing unit 34 may include one or more logic circuits.

第1の実施形態の第1の変形例における操作情報は、第1の実施形態における静止画取得指示および湾曲指示に加えて、以下の指示を含む。操作情報は、静止画を保存する指示(静止画保存指示)、計測を実行する指示(計測実行指示)、画像処理の設定を変更する指示(設定変更指示)、ラベルを動画に添付する指示(ラベル添付指示)、および情報を静止画に添付する指示(情報添付指示)を含む。処理部34は、操作情報に応じた処理を実行する。 The operation information in the first modified example of the first embodiment includes the following instructions in addition to the still image acquisition instruction and curvature instruction in the first embodiment. The operation information includes an instruction to save a still image (still image save instruction), an instruction to perform measurement (measurement execution instruction), an instruction to change the settings of image processing (setting change instruction), an instruction to attach a label to a moving image (label attachment instruction), and an instruction to attach information to a still image (information attachment instruction). The processing unit 34 executes processing according to the operation information.

ユーザーは、静止画取得指示を内視鏡装置1aに入力した後、静止画保存指示を内視鏡装置1aに入力する。情報受付部30が静止画保存指示を受け付けたとき、情報受付部30は静止画保存指示を処理部34に出力する。静止画保存指示が情報受付部30から出力されたとき、処理部34は、撮像素子22によって生成された1枚以上の静止画を記憶部31に保存する。1つの指示が静止画取得指示および静止画保存指示の両方を示してもよい。 The user inputs a still image acquisition instruction to the endoscope device 1a, and then inputs a still image storage instruction to the endoscope device 1a. When the information receiving unit 30 receives the still image storage instruction, the information receiving unit 30 outputs the still image storage instruction to the processing unit 34. When the still image storage instruction is output from the information receiving unit 30, the processing unit 34 stores one or more still images generated by the imaging element 22 in the memory unit 31. One instruction may indicate both a still image acquisition instruction and a still image storage instruction.

静止画が記憶部31に保存された後、ユーザーは、計測実行指示を内視鏡装置1aに入力する。情報受付部30が計測実行指示を受け付けたとき、情報受付部30は計測実行指示を処理部34に出力する。計測実行指示が情報受付部30から出力されたとき、処理部34は、記憶部31に保存された静止画を使用することにより計測を実行する。処理部34は、静止画に写っている被写体のサイズおよび深さを計測する。 After the still image is stored in the memory unit 31, the user inputs an instruction to execute a measurement to the endoscope device 1a. When the information receiving unit 30 receives the instruction to execute a measurement, the information receiving unit 30 outputs the instruction to execute a measurement to the processing unit 34. When the instruction to execute a measurement is output from the information receiving unit 30, the processing unit 34 executes a measurement by using the still image stored in the memory unit 31. The processing unit 34 measures the size and depth of the subject shown in the still image.

ユーザーは、動画記録中の任意のタイミングでラベル添付指示を内視鏡装置1aに入力する。例えば、ラベルは、画像に写っている被写体の種類を示す。その種類は、「表面傷」、「欠け」、および「穴」などである。情報受付部30がラベル添付指示を受け付けたとき、情報受付部30はラベル添付指示を処理部34に出力する。ラベル添付指示が情報受付部30から出力されたとき、処理部34は、ラベルを動画のフレームに付加する。ユーザーがラベルを指定したとき、そのラベルが添付されたフレームから動画の再生が開始される。 The user inputs a label attachment instruction to the endoscope device 1a at any timing during video recording. For example, the label indicates the type of subject shown in the image. The types are "surface scratch," "chip," and "hole." When the information receiving unit 30 receives a label attachment instruction, the information receiving unit 30 outputs the label attachment instruction to the processing unit 34. When the label attachment instruction is output from the information receiving unit 30, the processing unit 34 adds the label to a frame of the video. When the user specifies a label, playback of the video starts from the frame to which the label is attached.

挿入部2が検査箇所に近づいたとき、ユーザーは、湾曲指示を内視鏡装置1aに入力することにより、湾曲部21に挿入部2を湾曲させる。これにより、ユーザーは、撮影の構図を調整する。その後、ユーザーは、見やすい画像を取得するために設定変更指示を内視鏡装置1aに入力する。設定変更指示は、ズーム(画角)の設定または明るさの設定を変更する指示を示す。情報受付部30が設定変更指示を受け付けたとき、情報受付部30は設定変更指示を撮像素子22に出力する。撮像素子22は、ズームまたは明るさの設定を変更する。 When the insertion portion 2 approaches the examination location, the user bends the insertion portion 2 to the bending portion 21 by inputting a bending instruction to the endoscope device 1a. This allows the user to adjust the composition of the image to be captured. The user then inputs a setting change instruction to the endoscope device 1a in order to obtain an image that is easy to see. The setting change instruction indicates an instruction to change the zoom (angle of view) setting or the brightness setting. When the information receiving unit 30 receives the setting change instruction, the information receiving unit 30 outputs the setting change instruction to the image sensor 22. The image sensor 22 changes the zoom or brightness setting.

ユーザーが情報添付指示を内視鏡装置1aに入力した場合、任意の情報が静止画に添付される。例えば、その情報は、「検査箇所1の傷1」のような内容を示す。予め内視鏡装置1aに登録されたラベルがメモとして静止画に添付されてもよい。そのラベルは、「表面傷」、「欠け」、または「穴」などである。情報受付部30が情報添付指示を受け付けたとき、情報受付部30は情報添付指示を処理部34に出力する。情報添付指示が情報受付部30から出力されたとき、処理部34は、記憶部31に保存された静止画に情報を添付する。 When a user inputs an instruction to attach information into the endoscope device 1a, any information is attached to the still image. For example, the information indicates content such as "Scar 1 at inspection location 1." A label registered in advance in the endoscope device 1a may be attached to the still image as a memo. The label may be "surface scratch," "chip," or "hole." When the information receiving unit 30 receives an instruction to attach information, the information receiving unit 30 outputs the instruction to attach information to the processing unit 34. When the instruction to attach information is output from the information receiving unit 30, the processing unit 34 attaches the information to the still image stored in the memory unit 31.

静止画に添付される情報は、被検体に写っている領域の評価結果であってもよい。評価結果は、静止画に写っている傷のサイズおよび深さと対応する。例えば、評価結果は、傷ランク1または傷ランク2などを示す。傷のサイズおよび深さは、計測機能を使用することにより計測される。傷の深さは、挿入部2の先端20からその傷までの距離を示す。処理部34は、評価結果を自動で生成してもよい。例えば、傷のサイズが5mm以上である場合、処理部34は、傷ランク1と対応する評価情報を生成してもよい。ユーザーが、自動的に計測された傷のサイズまたは深さに基づいて傷ランクを指定してもよい。処理部34は、ユーザーによって指定された傷ランクと対応する評価情報を生成してもよい。 The information attached to the still image may be an evaluation result of the area shown on the subject. The evaluation result corresponds to the size and depth of the wound shown in the still image. For example, the evaluation result indicates wound rank 1 or wound rank 2. The size and depth of the wound are measured by using the measurement function. The depth of the wound indicates the distance from the tip 20 of the insertion portion 2 to the wound. The processing unit 34 may automatically generate the evaluation result. For example, if the size of the wound is 5 mm or more, the processing unit 34 may generate evaluation information corresponding to wound rank 1. The user may specify a wound rank based on the automatically measured size or depth of the wound. The processing unit 34 may generate evaluation information corresponding to the wound rank specified by the user.

重要度が操作情報に与えられている。図8は、操作情報に与えられた重要度を示す。重要度は数字で示されている。重要度を示す数字が大きいほど、その重要度は高い。 Importance is assigned to the operation information. Figure 8 shows the importance assigned to the operation information. The importance is indicated by a number. The higher the number indicating the importance, the higher the importance.

ユーザーは、所定の順番で検査を実施する。一般的に、ユーザーは、ラベル添付指示、湾曲指示、設定変更指示、静止画取得指示、静止画保存指示、メモを静止画に添付するための情報添付指示、計測指示、および評価結果を静止画に添付するための情報添付指示をこの順に内視鏡装置1aに入力する。検査の手順は、これらの指示に関する操作を含む。その手順においてより後の操作が実施されたとき、ユーザーが画像内の領域に注目する度合いはより高い。 The user performs the examination in a predetermined order. Typically, the user inputs the following instructions to the endoscope device 1a in this order: a label attachment instruction, a bending instruction, a setting change instruction, a still image acquisition instruction, a still image storage instruction, an information attachment instruction for attaching a note to the still image, a measurement instruction, and an information attachment instruction for attaching an evaluation result to the still image. The examination procedure includes operations related to these instructions. When a later operation in the procedure is performed, the user is more likely to focus on an area in the image.

動画編集部33は、操作情報毎に第1の区間を設定する。2つ以上の操作情報が使用されるため、2つ以上の第1の区間が設定される。動画編集部33は、図4に示すステップS107cを第1の区間毎に実行する。このとき、動画編集部33は、各第1の区間におけるフレーム数が操作情報の重要度に応じた数となるようにフレーム数を調整する。 The video editing unit 33 sets a first section for each piece of operation information. Since two or more pieces of operation information are used, two or more first sections are set. The video editing unit 33 executes step S107c shown in FIG. 4 for each first section. At this time, the video editing unit 33 adjusts the number of frames in each first section so that the number of frames corresponds to the importance of the operation information.

重要度が高いほど、調整された後のフレーム数は多い。第1のタイミングを含む第1の区間における動画の再生速度は、第2のタイミングを含む第1の区間における動画の再生速度よりも遅い。第1のタイミングは、第1の操作が実施されたタイミングを示す。第2のタイミングは、第1の操作の重要度よりも低い重要度を持つ第2の操作が実施されたタイミングを示す。 The higher the importance, the greater the number of frames after adjustment. The playback speed of the video in the first section including the first timing is slower than the playback speed of the video in the first section including the second timing. The first timing indicates the timing when a first operation is performed. The second timing indicates the timing when a second operation, which has a lower importance than the first operation, is performed.

動画編集部33は、上記の操作情報の全てを使用する必要はない。動画編集部33は、前述した2種類以上の操作情報のうちの1つのみを使用してもよい。動画編集部33は、前述した2種類以上の操作情報のうちの2つ以上を使用してもよい。 The video editing unit 33 does not need to use all of the above operation information. The video editing unit 33 may use only one of the two or more types of operation information described above. The video editing unit 33 may use two or more of the two or more types of operation information described above.

本発明の各態様は、次の変形例を含んでもよい。操作情報は、静止画を取得する指示、静止画を保存する指示、計測を実行する指示、挿入部2を湾曲させる指示、画像処理の設定を変更する指示、ラベルを動画に添付する指示、および情報を静止画に添付する指示の少なくとも1つを含む。静止画に添付される情報は、メモおよび傷の評価結果を含む。 Each aspect of the present invention may include the following modified examples. The operation information includes at least one of an instruction to obtain a still image, an instruction to save the still image, an instruction to perform a measurement, an instruction to bend the insertion portion 2, an instruction to change the image processing settings, an instruction to attach a label to a moving image, and an instruction to attach information to a still image. The information attached to the still image includes a note and a scratch evaluation result.

第1の実施形態の第1の変形例において、動画編集部33は、操作情報の種類に応じて第1の区間におけるフレーム数を調整する。そのため、内視鏡装置1aは、動画再生時にユーザーに重要な箇所を容易に確認させることができる。 In the first modification of the first embodiment, the video editing unit 33 adjusts the number of frames in the first section depending on the type of operation information. Therefore, the endoscope device 1a can allow the user to easily check important parts during video playback.

(第1の実施形態の第2の変形例)
図2に示す内視鏡装置1を使用することにより、本発明の第1の実施形態の第2の変形例を説明する。
(Second Modification of the First Embodiment)
A second modification of the first embodiment of the present invention will be described by using the endoscope device 1 shown in FIG.

動画編集部33は、第2の区間を2つ以上の部分区間に分割する。あるいは、動画編集部33は、第2の区間の全体に1つの部分区間を設定する。動画編集部33は、挿入長の単位長さあたりのフレーム数に基づいて各部分区間におけるフレーム数を調整する。部分区間における挿入長の単位長さあたりのフレーム数が所定値よりも大きい場合、動画編集部33は、その部分区間における少なくとも1枚のフレームを間引く。部分区間における挿入長の単位長さあたりのフレーム数が所定値以下である場合、動画編集部33は、その部分区間に少なくとも1枚のフレームを追加する。 The video editing unit 33 divides the second section into two or more subsections. Alternatively, the video editing unit 33 sets one subsection in the entire second section. The video editing unit 33 adjusts the number of frames in each subsection based on the number of frames per unit length of the insertion length. If the number of frames per unit length of the insertion length in a subsection is greater than a predetermined value, the video editing unit 33 thins out at least one frame in that subsection. If the number of frames per unit length of the insertion length in a subsection is equal to or less than a predetermined value, the video editing unit 33 adds at least one frame to that subsection.

例えば、所定値は、記憶部31に予め記憶されている。動画編集処理が実行されるとき、ユーザーが操作部4を操作することにより所定値を内視鏡装置1に入力してもよい。 For example, the predetermined value is stored in advance in the storage unit 31. When the video editing process is executed, the user may input the predetermined value to the endoscope device 1 by operating the operation unit 4.

図9を使用することにより、第1の実施形態の第2の変形例における動画編集処理について説明する。図9は、動画編集処理の手順を示す。図9に示す動画編集処理は、図3に示すステップS107において実行される。図4に示す処理と同じ処理の説明を省略する。 The video editing process in the second modified example of the first embodiment will be described using FIG. 9. FIG. 9 shows the procedure of the video editing process. The video editing process shown in FIG. 9 is executed in step S107 shown in FIG. 3. The description of the same process as that shown in FIG. 4 will be omitted.

ステップS107aの後、動画編集部33は、第2の区間における1つの部分区間を選択する(ステップS107d)。 After step S107a, the video editing unit 33 selects one subsection in the second section (step S107d).

ステップS107dの後、動画編集部33は、ステップS107dにおいて選択された部分区間における挿入長の単位長さあたりのフレーム数が所定値よりも大きいか否かを判断する(ステップS107e)。 After step S107d, the video editing unit 33 determines whether the number of frames per unit length of the insertion length in the partial section selected in step S107d is greater than a predetermined value (step S107e).

挿入長の単位長さあたりのフレーム数が所定値よりも大きいと動画編集部33がステップS107eにおいて判断した場合、動画編集部33は、ステップS107dにおいて選択された部分区間におけるフレームを間引く(ステップS107f)。 If the video editing unit 33 determines in step S107e that the number of frames per unit length of the insertion length is greater than a predetermined value, the video editing unit 33 thins out frames in the partial section selected in step S107d (step S107f).

挿入長の単位長さあたりのフレーム数が所定値以下であると動画編集部33がステップS107eにおいて判断した場合、動画編集部33は、ステップS107dにおいて選択された部分区間にフレームを追加する(ステップS107g)。このとき、動画編集部33は、その部分区間における1枚以上のフレームを複製し、かつその1枚以上のフレームをその部分区間に追加してもよい。動画編集部33は、その部分区間における2枚以上のフレームに基づいてその部分区間にフレームを補間してもよい。フレームが部分区間に追加される場合であっても、第2の区間の全体におけるフレームの数は減る。 If the video editing unit 33 determines in step S107e that the number of frames per unit length of the insertion length is equal to or less than a predetermined value, the video editing unit 33 adds frames to the partial section selected in step S107d (step S107g). At this time, the video editing unit 33 may duplicate one or more frames in the partial section and add the one or more frames to the partial section. The video editing unit 33 may also interpolate frames in the partial section based on two or more frames in the partial section. Even when frames are added to the partial section, the number of frames in the entire second section is reduced.

ステップS107fまたはステップS107gの後、動画編集部33は、全ての部分区間における処理が終了したか否かを判断する(ステップS107h)。1つ以上の部分区間においてステップS107fおよびステップS107gのいずれも実行されていない場合、ステップS107dが実行される。全ての部分区間においてステップS107fまたはステップS107gが実行された場合、ステップS107cが実行される。 After step S107f or step S107g, the video editing unit 33 determines whether processing has been completed for all partial sections (step S107h). If neither step S107f nor step S107g has been performed for one or more partial sections, step S107d is performed. If step S107f or step S107g has been performed for all partial sections, step S107c is performed.

動画編集部33が第2の区間の1つ以上の部分区間にフレームを追加する場合、動画編集部33は第2の区間の他の1つ以上の部分区間におけるフレームを間引く。フレーム数の調整を通して第2の区間の全体におけるフレームの数を減らすために、追加されるフレームの数は、間引かれるフレームの数よりも小さい。 When the video editing unit 33 adds frames to one or more subsections of the second section, the video editing unit 33 thins out frames in one or more other subsections of the second section. To reduce the number of frames in the entire second section through adjusting the number of frames, the number of frames added is smaller than the number of frames thinned out.

動画編集部33は、第2の区間の全体におけるフレームの数が第2の区間におけるフレーム数の調整を通して減ったか否かを判断してもよい。第2の区間の全体におけるフレームの数が増えた場合、動画編集部33は、ステップS107eに使用される所定値を小さくし、かつ第2の区間におけるフレーム数の調整を繰り返してもよい。 The video editing unit 33 may determine whether the number of frames in the entire second section has decreased through the adjustment of the number of frames in the second section. If the number of frames in the entire second section has increased, the video editing unit 33 may decrease the predetermined value used in step S107e and repeat the adjustment of the number of frames in the second section.

第1の実施形態の第2の変形例において、図7に示す内視鏡装置1aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。 In the second modified example of the first embodiment, the endoscope device 1a shown in FIG. 7 may be used. The video editing unit 33 may adjust the number of frames in the first section by using the method in the first modified example of the first embodiment.

本発明の各態様は、次の変形例を含んでもよい。第2の区間は、1つ以上の部分区間を含む。1つ以上の部分区間の少なくとも1つにおける挿入長の単位長さあたりのフレーム数が所定値よりも大きい場合、動画編集部33は、1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く。 Each aspect of the present invention may include the following variations. The second section includes one or more subsections. If the number of frames per unit length of the insertion length in at least one of the one or more subsections is greater than a predetermined value, the video editing unit 33 thins out at least one frame in at least one of the one or more subsections.

本発明の各態様は、次の変形例を含んでもよい。第2の区間は、2つ以上の部分区間を含む。2つ以上の部分区間の少なくとも1つにおける挿入長の単位長さあたりのフレーム数が所定値以下である場合、動画編集部33は、2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する。 Each aspect of the present invention may include the following variations. The second section includes two or more subsections. If the number of frames per unit length of the insertion length in at least one of the two or more subsections is equal to or less than a predetermined value, the video editing unit 33 adds at least one frame to at least one of the two or more subsections.

第1の実施形態の第2の変形例において、動画編集部33は、第2の区間の部分区間におけるフレーム数を調整する。これにより、動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さを一定にすることができる。 In the second modified example of the first embodiment, the video editing unit 33 adjusts the number of frames in a partial section of the second section. This allows the video editing unit 33 to keep the speed at which the insertion portion 2 is inserted into the subject constant during video playback.

(第1の実施形態の第3の変形例)
図2に示す内視鏡装置1を使用することにより、本発明の第1の実施形態の第3の変形例を説明する。
(Third Modification of the First Embodiment)
A third modification of the first embodiment of the present invention will be described by using the endoscope device 1 shown in FIG.

検査においてユーザーが挿入部2を被検体に挿入することに失敗する場合がある。その場合、ユーザーは挿入部2を少し引き、かつ挿入部2を再度進行させる。あるいは、ユーザーが挿入部2を被検体から引き抜き、かつ挿入部2を被検体に再度挿入する。そのため、挿入部2が被検体内の同じ箇所を2回以上通る場合がある。動画の閲覧者は、同じ箇所を何回も閲覧する必要はない。第1の実施形態の第3の変形例において、内視鏡装置1は複数回の撮影を通して生成されたフレームを減らす。 During an examination, the user may fail to insert the insertion portion 2 into the subject. In that case, the user pulls back the insertion portion 2 slightly and advances it again. Alternatively, the user pulls out the insertion portion 2 from the subject and reinserts it into the subject. Therefore, the insertion portion 2 may pass through the same location in the subject more than once. Viewers of the video do not need to view the same location multiple times. In a third modified example of the first embodiment, the endoscope device 1 reduces the frames generated through multiple captures.

被検体が、分岐している構造を有する場合がある。そのため、先端20が被検体内の第1の箇所にあるときの挿入長と、先端20が被検体内の第2の箇所にあるときの挿入長とが同じ場合がある。第1の箇所が第1のフレームに写り、第2の箇所が第2のフレームに写る。第1のフレームから算出された挿入長は、第2のフレームから算出された挿入長と同じである。動画編集部33が挿入長に基づいて第1のフレームと第2のフレームとを区別することは難しい。 The subject may have a branched structure. Therefore, the insertion length when the tip 20 is at a first location in the subject may be the same as the insertion length when the tip 20 is at a second location in the subject. The first location is captured in the first frame, and the second location is captured in the second frame. The insertion length calculated from the first frame is the same as the insertion length calculated from the second frame. It is difficult for the video editing unit 33 to distinguish between the first frame and the second frame based on the insertion length.

動画編集部33は、動画の各フレームに付加されている座標情報に基づいて、先端20の位置を判断する。上記の第1の箇所の座標情報は、上記の第2の箇所の座標情報と異なる。そのため、動画編集部33は、第1のフレームと第2のフレームとを区別することができる。動画編集部33は、先端20の位置の変化の軌跡が最短となるように、動画に含まれる2枚以上のフレームの一部を削除する。 The video editing unit 33 determines the position of the tip 20 based on the coordinate information added to each frame of the video. The coordinate information of the first location is different from the coordinate information of the second location. Therefore, the video editing unit 33 can distinguish between the first frame and the second frame. The video editing unit 33 deletes a portion of two or more frames included in the video so that the trajectory of the change in the position of the tip 20 is the shortest.

図10を使用することにより、第1の実施形態の第3の変形例における動画編集処理について説明する。図10は、動画編集処理の手順を示す。図10に示す動画編集処理は、図3に示すステップS107において実行される。図4に示す処理と同じ処理の説明を省略する。 The video editing process in the third modified example of the first embodiment will be described using FIG. 10. FIG. 10 shows the procedure of the video editing process. The video editing process shown in FIG. 10 is executed in step S107 shown in FIG. 3. The description of the same process as that shown in FIG. 4 will be omitted.

動画編集部33は、先端20の位置の変化の軌跡が最短となるようにフレームを削除する(ステップS107i)。ステップS107iの後、ステップS107aが実行される。 The video editing unit 33 deletes frames so that the trajectory of the change in the position of the tip 20 is the shortest (step S107i). After step S107i, step S107a is executed.

ステップS107iおよびステップS107aの順番は、図10に示す順番に限らない。ステップS107iが実行される前にステップS107aが実行されてもよい。 The order of steps S107i and S107a is not limited to the order shown in FIG. 10. Step S107a may be executed before step S107i is executed.

図11および図12は、ステップS107iにおける処理の内容を示す。挿入部2は、図11および図12における右方向に挿入される。図11における線L21は、ステップS107iが実行される前の動画における先端20の移動の軌跡を示す。図12における線L22は、ステップS107iが実行された後の動画における先端20の移動の軌跡を示す。線L21または線L22が示す軌跡は、撮像素子22の位置の変化の軌跡と同等である。線L21および線L22上の複数のマークは、撮像素子22がフレームを生成したときの先端20の位置を示す。 Figures 11 and 12 show the processing in step S107i. Insertion unit 2 is inserted to the right in Figures 11 and 12. Line L21 in Figure 11 shows the trajectory of movement of tip 20 in the video before step S107i is executed. Line L22 in Figure 12 shows the trajectory of movement of tip 20 in the video after step S107i is executed. The trajectory shown by line L21 or line L22 is equivalent to the trajectory of the change in position of image sensor 22. Multiple marks on line L21 and line L22 show the position of tip 20 when image sensor 22 generated the frame.

図11における線L23が示す領域において、挿入部2が被検体内の同じ箇所を2回通る。動画編集部33は、位置P21から位置P22までの先端20の位置の変化の軌跡が最短となるようにフレームを削除する。このとき、動画編集部33は、線L23が示す領域において生成されたフレームを削除する。ステップS107iが実行された後、動画は、線L23が示す領域において生成されたフレームを含まない。 In the region indicated by line L23 in FIG. 11, the insertion portion 2 passes through the same location in the subject twice. The video editing unit 33 deletes frames so that the trajectory of the change in position of the tip 20 from position P21 to position P22 is the shortest. At this time, the video editing unit 33 deletes frames generated in the region indicated by line L23. After step S107i is executed, the video does not include frames generated in the region indicated by line L23.

動画における2枚以上のフレームは、フレームが生成された順に互いに接続されている。フレームが削除される前、位置P23において生成されたフレームと、位置P24において生成されたフレームとが互いに接続されている。また、位置P25において生成されたフレームと、位置P26において生成されたフレームとが互いに接続されている。 Two or more frames in a video are connected to each other in the order in which they were generated. Before frames are deleted, the frame generated at position P23 and the frame generated at position P24 are connected to each other. In addition, the frame generated at position P25 and the frame generated at position P26 are connected to each other.

動画編集部33は、フレーム間の接続を変更する。フレームが削除された後、動画編集部33は、位置P23において生成されたフレームと、位置P26において生成されたフレームとを互いに接続する。 The video editing unit 33 changes the connections between frames. After the frames are deleted, the video editing unit 33 connects the frame generated at position P23 and the frame generated at position P26 to each other.

動画編集部33は、ステップS107iにおいて、各フレームが生成された時刻を考慮する必要はない。動画編集部33は、各フレームに付加されている座標情報のみに基づいて、先端20の位置を判断する。動画編集部33は、先端20の位置に基づいて、削除されるフレームを選択する。動画編集部33は、選択されたフレームを削除する。 In step S107i, the video editing unit 33 does not need to consider the time at which each frame was generated. The video editing unit 33 determines the position of the tip 20 based only on the coordinate information added to each frame. The video editing unit 33 selects frames to be deleted based on the position of the tip 20. The video editing unit 33 deletes the selected frames.

動画編集部33は、動画に含まれる3枚以上のフレームのうち1枚以上を削除してもよい。削除された1枚以上のフレームを除く2枚以上のフレームに関する撮像素子22の位置の変化の軌跡は最短となる。動画編集部33は、削除された1枚以上のフレームを除く2枚以上のフレーム間の接続を変更してもよい。 The video editing unit 33 may delete one or more of the three or more frames included in the video. The trajectory of the change in the position of the image sensor 22 for two or more frames excluding the one or more deleted frames will be the shortest. The video editing unit 33 may change the connection between two or more frames excluding the one or more deleted frames.

フレーム間の接続を変更することにより、フレームの再生順が変更される場合がある。例えば、第3のフレームが生成され、その後、第4のフレームが生成される。フレーム間の接続が変更されない場合、第3のフレームが再生され、その後、第4のフレームが再生される。フレーム間の接続が変更される場合、第4のフレームが再生され、その後、第3のフレームが再生される可能性がある。 By changing the connections between frames, the order in which frames are played may change. For example, a third frame is generated, then a fourth frame is generated. If the connections between frames are not changed, the third frame is played, then the fourth frame is played. If the connections between frames are changed, the fourth frame may be played, then the third frame.

ユーザーが動画記録中に照明の光量を上げる、または画像処理の設定を変更する場合がある。画像処理の設定は、ズーム(画角)の設定または明るさの設定である。動画編集部33がフレーム間の接続を変更すると、互いに接続された2枚のフレーム間で画像の明るさが大きく異なる場合がある。あるいは、互いに接続された2枚のフレーム間で画像の画角が大きく異なる場合がある。そのため、動画が見にくくなる可能性がある。 The user may increase the amount of light or change the image processing settings while recording a video. The image processing settings are zoom (angle of view) settings or brightness settings. When the video editing unit 33 changes the connections between frames, the brightness of the images may differ significantly between the two connected frames. Alternatively, the angle of view of the images may differ significantly between the two connected frames. This may make the video difficult to view.

動画編集部33は、画像の明るさまたは画角の変化を抑制するために以下の処理を実行してもよい。例えば、動画編集部33は、フレームの輝度値に基づいて、互いに接続される2枚のフレームを選択する。あるいは、動画編集部33は、画像処理の設定値に基づいて、互いに接続される2枚のフレームを選択する。 The video editing unit 33 may execute the following processes to suppress changes in image brightness or angle of view. For example, the video editing unit 33 selects two frames to be connected to each other based on the luminance values of the frames. Alternatively, the video editing unit 33 selects two frames to be connected to each other based on the setting values of image processing.

第1の実施形態の第3の変形例において、図7に示す内視鏡装置1aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。 In the third modified example of the first embodiment, the endoscope device 1a shown in FIG. 7 may be used. The video editing unit 33 may adjust the number of frames in the first section by using the method in the first modified example of the first embodiment.

動画編集部33は、ステップS107bの代わりに図9に示すステップS107dからステップS107hを実行してもよい。 The video editing unit 33 may execute steps S107d to S107h shown in FIG. 9 instead of step S107b.

本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームを使用することにより、その2枚以上のフレームの各々が生成されたタイミングにおける撮像素子22の位置を推定する。動画編集部33は、撮像素子22の位置の変化の軌跡が最短となるようにその2枚以上のフレームの一部を削除する。 Each aspect of the present invention may include the following modified examples. The information generating unit 32 uses two or more frames to estimate the position of the image sensor 22 at the timing when each of the two or more frames was generated. The video editing unit 33 deletes a portion of the two or more frames so as to minimize the trajectory of the change in the position of the image sensor 22.

第1の実施形態の第3の変形例における動画は、3枚以上のフレームを含んでもよい。その3枚以上のフレームは、第1の区間における1枚以上のフレームと、第2の区間における2枚以上のフレームとを含んでもよい。動画編集部33は、第2の区間における撮像素子22の位置の変化の軌跡が最短となるように第2の区間における2枚以上のフレームの一部を削除してもよい。 The video in the third modified example of the first embodiment may include three or more frames. The three or more frames may include one or more frames in the first section and two or more frames in the second section. The video editing unit 33 may delete some of the two or more frames in the second section so that the trajectory of the change in the position of the image sensor 22 in the second section is the shortest.

第1の実施形態の第3の変形例において、動画編集部33は、同一の箇所が写っている2枚以上のフレームの一部を削除する。そのため、内視鏡装置1は、動画再生時のユーザーの負担を低減させることができる。 In the third modified example of the first embodiment, the video editing unit 33 deletes a portion of two or more frames that show the same location. Therefore, the endoscope device 1 can reduce the burden on the user when playing back a video.

(第2の実施形態)
本発明の第2の実施形態を説明する。図2に示す内視鏡装置1は、図13に示す内視鏡装置1bに変更される。図13は、内視鏡装置1bの構成を示す。図2に示す挿入部2は、図13に示す挿入部2bに変更される。図2に示す構成と同じ構成の説明を省略する。
Second Embodiment
A second embodiment of the present invention will be described. The endoscope device 1 shown in Fig. 2 is changed to an endoscope device 1b shown in Fig. 13. Fig. 13 shows the configuration of the endoscope device 1b. The insertion section 2 shown in Fig. 2 is changed to an insertion section 2b shown in Fig. 13. A description of the same configuration as that shown in Fig. 2 will be omitted.

挿入部2は、湾曲部21、撮像素子22、およびセンサ23を有する。センサ23は、挿入部2の先端20に配置されている。例えば、センサ23は、加速度センサまたはジャイロセンサ(角速度センサ)である。加速度センサは、先端20の加速度を検出する。センサ23は、1軸の加速度センサであってもよい。1軸の加速度センサは、挿入部2の長手方向の加速度を検出する。ジャイロセンサは、先端20の角速度を検出する。センサ23は、加速度センサおよびジャイロセンサの組み合わせであってもよい。センサ23は、3軸の加速度および3軸の角速度を検出する6軸慣性センサであってもよい。 The insertion section 2 has a bending section 21, an imaging element 22, and a sensor 23. The sensor 23 is disposed at the tip 20 of the insertion section 2. For example, the sensor 23 is an acceleration sensor or a gyro sensor (angular velocity sensor). The acceleration sensor detects the acceleration of the tip 20. The sensor 23 may be a one-axis acceleration sensor. The one-axis acceleration sensor detects the acceleration in the longitudinal direction of the insertion section 2. The gyro sensor detects the angular velocity of the tip 20. The sensor 23 may be a combination of an acceleration sensor and a gyro sensor. The sensor 23 may be a six-axis inertial sensor that detects three-axis acceleration and three-axis angular velocity.

センサ23は、物理量を計測し、その物理量を示すセンサ情報を出力する。その物理量は、加速度または角速度である。センサ情報は、先端20の加速度または先端20の角速度を示す。 The sensor 23 measures a physical quantity and outputs sensor information indicating that physical quantity. The physical quantity is acceleration or angular velocity. The sensor information indicates the acceleration of the tip 20 or the angular velocity of the tip 20.

情報受付部30が動画の記録に関する指示を除く操作情報を受け付けたとき、情報受付部30はその操作情報を動画のフレームに付加する。また、情報受付部30は、センサ23から出力されたセンサ情報をフレームに付加する。 When the information receiving unit 30 receives operation information other than instructions related to video recording, the information receiving unit 30 adds the operation information to a frame of the video. The information receiving unit 30 also adds sensor information output from the sensor 23 to the frame.

情報生成部32が、加速度を示すセンサ情報を使用する例を説明する。情報生成部32は、第1の実施形態における方法を使用することにより挿入長(第1の仮挿入長)を算出する。このとき、情報生成部32は、画像から特徴点を検出し、その特徴点の情報を使用する。また、情報生成部32は、センサ情報を使用することにより挿入長(第2の仮挿入長)を算出する。具体的には、情報生成部32は、加速度に基づいて先端20の位置の変化量を算出する。情報生成部32は、その変化量に基づいて第2の仮挿入長を算出する。 An example will be described in which the information generating unit 32 uses sensor information indicating acceleration. The information generating unit 32 calculates the insertion length (first tentative insertion length) by using the method in the first embodiment. At this time, the information generating unit 32 detects feature points from the image and uses information on the feature points. The information generating unit 32 also calculates the insertion length (second tentative insertion length) by using the sensor information. Specifically, the information generating unit 32 calculates the amount of change in the position of the tip 20 based on the acceleration. The information generating unit 32 calculates the second tentative insertion length based on the amount of change.

情報生成部32は、第1の仮挿入長および第2の仮挿入長に基づいて最終的な挿入長を算出する。例えば、情報生成部32は、第1の仮挿入長および第2の仮挿入長の加重平均を算出し、算出された加重平均を最終的な挿入長として使用する。情報生成部32は、特徴点の数に応じて加重平均の重みを設定する。特徴点の数が十分多い場合、情報生成部32は、第1の仮挿入長の重みを第2の仮挿入長の重みよりも大きくする。特徴点の数が少ない場合、情報生成部32は、第2の仮挿入長の重みを第1の仮挿入長の重みよりも大きくする。 The information generating unit 32 calculates the final insertion length based on the first tentative insertion length and the second tentative insertion length. For example, the information generating unit 32 calculates a weighted average of the first tentative insertion length and the second tentative insertion length, and uses the calculated weighted average as the final insertion length. The information generating unit 32 sets the weight of the weighted average according to the number of feature points. When the number of feature points is sufficiently large, the information generating unit 32 sets the weight of the first tentative insertion length to be greater than the weight of the second tentative insertion length. When the number of feature points is small, the information generating unit 32 sets the weight of the second tentative insertion length to be greater than the weight of the first tentative insertion length.

情報生成部32は、上記の処理を実行することにより、2枚以上のフレームの各々が生成されたタイミングにおける挿入長を推定する。情報生成部32は、算出された挿入長を含む位置情報を各フレームに付加する。 By performing the above process, the information generating unit 32 estimates the insertion length at the timing when each of the two or more frames is generated. The information generating unit 32 adds position information including the calculated insertion length to each frame.

図14から図17を使用することにより、情報生成部32が、角速度を示すセンサ情報を使用する例を説明する。図14は、挿入部2が被検体IT12に挿入されているときの状態ST11、状態ST12、および状態ST13を示す。挿入部2は、図14に示す方向DR11に挿入され、かつ図14に示す方向DR12に引き抜かれる。 Using Figures 14 to 17, an example in which the information generating unit 32 uses sensor information indicating angular velocity will be described. Figure 14 shows states ST11, ST12, and ST13 when the insertion portion 2 is inserted into the subject IT12. The insertion portion 2 is inserted in a direction DR11 shown in Figure 14, and is withdrawn in a direction DR12 shown in Figure 14.

図15は、状態ST11において撮像素子22によって生成されたフレームF11、フレームF12、およびフレームF13を示す。図16は、状態ST12において撮像素子22によって生成されたフレームF14、フレームF15、およびフレームF16を示す。図17は、状態ST13において撮像素子22によって生成されたフレームF17、フレームF18、およびフレームF19を示す。図14から図17における領域RG11および領域RG12は、被検体IT12の領域を模式的に示す。 Figure 15 shows frames F11, F12, and F13 generated by the imaging element 22 in state ST11. Figure 16 shows frames F14, F15, and F16 generated by the imaging element 22 in state ST12. Figure 17 shows frames F17, F18, and F19 generated by the imaging element 22 in state ST13. Regions RG11 and RG12 in Figures 14 to 17 typically show the regions of the subject IT12.

状態ST11において、挿入部2は湾曲していない。被検体IT12の奥側の領域RG11および領域RG12がフレームF11、フレームF12、およびフレームF13に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF11を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF12を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF13を生成する。 In state ST11, the insertion portion 2 is not bent. Regions RG11 and RG12 at the rear of the subject IT12 are captured in frames F11, F12, and F13. When the tip 20 of the insertion portion 2 is in the position shown in FIG. 14, the image sensor 22 generates frame F11. After the tip 20 moves in direction DR11 from the position shown in FIG. 14, the image sensor 22 generates frame F12. After the tip 20 moves in direction DR12 from the position shown in FIG. 14, the image sensor 22 generates frame F13.

状態ST12において、挿入部2は湾曲している。被検体IT12の内側の表面上の領域RG11および領域RG12がフレームF14、フレームF15、およびフレームF16に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF14を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF15を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF16を生成する。 In state ST12, the insertion portion 2 is curved. Regions RG11 and RG12 on the inner surface of the subject IT12 are captured in frames F14, F15, and F16. When the tip 20 of the insertion portion 2 is in the position shown in FIG. 14, the image sensor 22 generates frame F14. After the tip 20 moves in direction DR11 from the position shown in FIG. 14, the image sensor 22 generates frame F15. After the tip 20 moves in direction DR12 from the position shown in FIG. 14, the image sensor 22 generates frame F16.

状態ST13において、挿入部2は湾曲している。被検体IT12の内側の表面上の領域RG11および領域RG12がフレームF17、フレームF18、およびフレームF19に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF17を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF18を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF19を生成する。 In state ST13, the insertion portion 2 is curved. Regions RG11 and RG12 on the inner surface of the subject IT12 are captured in frames F17, F18, and F19. When the tip 20 of the insertion portion 2 is in the position shown in FIG. 14, the image sensor 22 generates frame F17. After the tip 20 moves in direction DR11 from the position shown in FIG. 14, the image sensor 22 generates frame F18. After the tip 20 moves in direction DR12 from the position shown in FIG. 14, the image sensor 22 generates frame F19.

挿入長が変化した場合、撮像素子22によって生成されたフレームは、先端20の方向に応じて変化する。例えば、状態ST11において先端20が方向DR11に移動する場合、フレームF11およびフレームF12に示すように、領域RG11は左方向に移動し、かつ領域RG12は右方向に移動する。状態ST12において先端20が方向DR11に移動する場合、フレームF14およびフレームF15に示すように、領域RG11および領域RG12は右方向に移動する。一方、状態ST13において先端20が方向DR11に移動する場合、フレームF17およびフレームF18に示すように、領域RG11および領域RG12は左方向に移動する。上記のように、先端20の移動方向と、フレームにおける領域の移動方向との関係は、先端20の方向に応じて変化する。 When the insertion length changes, the frame generated by the image sensor 22 changes according to the direction of the tip 20. For example, when the tip 20 moves in the direction DR11 in state ST11, region RG11 moves leftward and region RG12 moves rightward, as shown in frames F11 and F12. When the tip 20 moves in the direction DR11 in state ST12, region RG11 and region RG12 move rightward, as shown in frames F14 and F15. On the other hand, when the tip 20 moves in the direction DR11 in state ST13, region RG11 and region RG12 move leftward, as shown in frames F17 and F18. As described above, the relationship between the movement direction of the tip 20 and the movement direction of the region in the frame changes according to the direction of the tip 20.

情報生成部32は、第1の実施形態における方法を使用することにより挿入長(仮挿入長)を算出する。情報生成部32は、センサ情報が示す角加速度を使用することにより、仮挿入長を補正する。これにより、情報生成部32は、最終的な挿入長を算出する。 The information generating unit 32 calculates the insertion length (provisional insertion length) by using the method in the first embodiment. The information generating unit 32 corrects the provisional insertion length by using the angular acceleration indicated by the sensor information. As a result, the information generating unit 32 calculates the final insertion length.

図18を使用することにより、第2の実施形態における動画記録処理について説明する。図18は、動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the second embodiment will be described using FIG. 18. FIG. 18 shows the procedure for the video recording process. The description of the same process as that shown in FIG. 3 will be omitted.

ステップS102の後、情報受付部30は、操作情報およびセンサ情報をステップS101において記憶部31に保存されたフレームに付加する。例えば、情報受付部30は操作情報およびセンサ情報をフレームに埋め込む(ステップS110)。ステップS110の後、ステップS104が実行される。 After step S102, the information receiving unit 30 adds the operation information and sensor information to the frame stored in the storage unit 31 in step S101. For example, the information receiving unit 30 embeds the operation information and sensor information in the frame (step S110). After step S110, step S104 is executed.

ステップS105の後、情報生成部32は、動画ファイルおよびセンサ情報に基づいて挿入長を算出する。情報生成部32は、座標情報および長さ情報(挿入長)を含む位置情報を生成し、生成された位置情報を各フレームに付加する。例えば、情報生成部32は位置情報をフレームに埋め込む(ステップS111)。ステップS111の後、ステップS107が実行される。 After step S105, the information generating unit 32 calculates the insertion length based on the video file and the sensor information. The information generating unit 32 generates position information including coordinate information and length information (insertion length), and adds the generated position information to each frame. For example, the information generating unit 32 embeds the position information in the frame (step S111). After step S111, step S107 is executed.

制御部3の代わりに、図7に示す制御部3aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。 Instead of the control unit 3, a control unit 3a shown in FIG. 7 may be used. The video editing unit 33 may adjust the number of frames in the first section by using the method in the first modified example of the first embodiment.

動画編集部33は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。 The video editing unit 33 may execute the video editing process shown in FIG. 9 or FIG. 10 instead of the video editing process shown in FIG. 4.

ハレーションなどが画像に発生した場合、情報生成部32が特徴点をその画像から検出することが難しい。その場合、情報生成部32がその画像を使用することにより挿入部2の先端20の位置を推定することが難しい。 If halation or the like occurs in the image, it is difficult for the information generating unit 32 to detect feature points from the image. In that case, it is difficult for the information generating unit 32 to estimate the position of the tip 20 of the insertion unit 2 by using the image.

第2の実施形態において、情報生成部32は、動画ファイルに加えてセンサ情報を使用することにより挿入長を算出する。これにより、挿入長を推定する精度が向上する。 In the second embodiment, the information generating unit 32 calculates the insertion length by using sensor information in addition to the video file. This improves the accuracy of estimating the insertion length.

(第2の実施形態の第1の変形例)
本発明の第2の実施形態の第1の変形例を説明する。図2に示す内視鏡装置1は、図19に示す内視鏡装置1cに変更される。図19は、内視鏡装置1cの構成を示す。図2に示す制御部3は、図19に示す制御部3cに変更される。図2に示す構成と同じ構成の説明を省略する。
(First Modification of the Second Embodiment)
A first modified example of the second embodiment of the present invention will be described. The endoscope device 1 shown in Fig. 2 is changed to an endoscope device 1c shown in Fig. 19. Fig. 19 shows the configuration of the endoscope device 1c. The control unit 3 shown in Fig. 2 is changed to a control unit 3c shown in Fig. 19. A description of the same configuration as that shown in Fig. 2 will be omitted.

制御部3cは、情報受付部30、記憶部31、情報生成部32、動画編集部33、およびセンサ35を有する。センサ35は、撮像素子(イメージセンサ)またはロータリーエンコーダーである。 The control unit 3c has an information receiving unit 30, a memory unit 31, an information generating unit 32, a video editing unit 33, and a sensor 35. The sensor 35 is an imaging element (image sensor) or a rotary encoder.

センサ35が撮像素子である例を説明する。挿入長を示す所定の情報が挿入部2の表面に表示されている。所定の情報は、目盛、数字、またはマーク等である。撮像素子は、所定の情報が写っている画像を生成する。撮像素子は、生成された画像をセンサ情報として出力する。情報生成部32は、その画像を解析することにより挿入長を検出する。 An example will be described in which the sensor 35 is an imaging element. Predetermined information indicating the insertion length is displayed on the surface of the insertion portion 2. The predetermined information is a scale, a number, a mark, or the like. The imaging element generates an image in which the predetermined information is displayed. The imaging element outputs the generated image as sensor information. The information generation unit 32 detects the insertion length by analyzing the image.

センサ35がロータリーエンコーダーである例を説明する。2つのローラーが、挿入部2を挟むように配置されている。2つのローラーは、挿入部2と接触している。挿入部2が移動すると2つのローラーが回転する。ロータリーエンコーダーは、2つのローラーのうちの少なくとも1つの回転量を検出することにより、挿入長を検出する。ロータリーエンコーダーは、検出された挿入長を示すセンサ情報を出力する。情報生成部32は、そのセンサ情報に基づいて挿入長(第2の仮挿入長)を検出する。 An example in which the sensor 35 is a rotary encoder will be described. Two rollers are arranged to sandwich the insertion portion 2. The two rollers are in contact with the insertion portion 2. When the insertion portion 2 moves, the two rollers rotate. The rotary encoder detects the amount of rotation of at least one of the two rollers to detect the insertion length. The rotary encoder outputs sensor information indicating the detected insertion length. The information generating unit 32 detects the insertion length (second tentative insertion length) based on the sensor information.

第2の実施形態の第1の変形例における動画記録処理の手順は、図18に示す手順と同じである。 The procedure for the video recording process in the first variant of the second embodiment is the same as that shown in FIG. 18.

挿入部2は、図13に示す挿入部2bに変更されてもよい。つまり、内視鏡装置1cは、センサ23およびセンサ35を有してもよい。内視鏡装置1cに配置されるセンサは、加速度センサ、ジャイロセンサ、6軸慣性センサ、撮像素子、およびロータリーエンコーダーのいずれか1つであってもよい。あるいは、内視鏡装置1cに配置されるセンサは、2つ以上のセンサの組み合わせであってもよい。 The insertion section 2 may be changed to the insertion section 2b shown in FIG. 13. That is, the endoscope device 1c may have a sensor 23 and a sensor 35. The sensor arranged in the endoscope device 1c may be any one of an acceleration sensor, a gyro sensor, a six-axis inertial sensor, an imaging element, and a rotary encoder. Alternatively, the sensor arranged in the endoscope device 1c may be a combination of two or more sensors.

本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームに加えて、センサ情報を使用することにより撮像素子22の位置を推定する。センサ情報は、第1のセンサによって生成された第1のセンサ情報、第2のセンサによって生成された第2のセンサ情報、および第3のセンサによって生成された第3のセンサ情報の少なくとも1つを含む。第1のセンサ情報は挿入長を示す。第2のセンサ情報は挿入部2の先端20の加速度を示す。第3のセンサ情報は、先端20の角速度を示す。 Each aspect of the present invention may include the following modifications. The information generating unit 32 estimates the position of the imaging element 22 by using sensor information in addition to two or more frames. The sensor information includes at least one of first sensor information generated by a first sensor, second sensor information generated by a second sensor, and third sensor information generated by a third sensor. The first sensor information indicates an insertion length. The second sensor information indicates an acceleration of the tip 20 of the insertion portion 2. The third sensor information indicates an angular velocity of the tip 20.

挿入長が変化せずに湾曲部21が挿入部2を湾曲させる場合がある。挿入部2が湾曲するため、撮像素子22によって生成されたフレームが変化する。この場合、情報生成部32によって算出された挿入長が変化する可能性がある。 There are cases where the bending section 21 bends the insertion section 2 without changing the insertion length. As the insertion section 2 bends, the frames generated by the image sensor 22 change. In this case, the insertion length calculated by the information generating section 32 may change.

第2の実施形態の第1の変形例において、情報生成部32は、動画ファイルに加えて、挿入長を示すセンサ情報を使用することにより挿入長を算出する。これにより、挿入長を推定する精度が向上する。 In the first modification of the second embodiment, the information generating unit 32 calculates the insertion length by using sensor information indicating the insertion length in addition to the video file. This improves the accuracy of estimating the insertion length.

(第2の実施形態の第2の変形例)
本発明の第2の実施形態の第2の変形例を説明する。第2の実施形態の第2の変形例において、図13に示すセンサ23および図19に示すセンサ35の少なくとも1つを有する内視鏡装置が使用される。
(Second Modification of the Second Embodiment)
A second modification of the second embodiment of the present invention will now be described. In the second modification of the second embodiment, an endoscope apparatus having at least one of the sensor 23 shown in Fig. 13 and the sensor 35 shown in Fig. 19 is used.

情報生成部32は、動画のフレームを使用せずに、センサ23およびセンサ35の少なくとも1つによって生成されたセンサ情報を使用することにより、挿入長を算出または検出する。 The information generating unit 32 calculates or detects the insertion length by using sensor information generated by at least one of the sensors 23 and 35, without using video frames.

図20を使用することにより、第2の実施形態の第2の変形例における動画記録処理について説明する。図20は、動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the second modified example of the second embodiment will be described using FIG. 20. FIG. 20 shows the procedure for the video recording process. The description of the same process as that shown in FIG. 3 will be omitted.

ステップS102の後、情報生成部32は、センサ情報を使用することにより、挿入長を算出または検出する。情報生成部32は、長さ情報(挿入長)を含む位置情報を生成し、生成された位置情報を操作情報と一緒に各フレームに付加する。例えば、情報生成部32は位置情報および操作情報をフレームに埋め込む(ステップS120)。ステップS120の後、ステップS104が実行される。 After step S102, the information generating unit 32 calculates or detects the insertion length by using the sensor information. The information generating unit 32 generates position information including length information (insertion length) and adds the generated position information together with operation information to each frame. For example, the information generating unit 32 embeds the position information and operation information in the frame (step S120). After step S120, step S104 is executed.

情報生成部32は、センサ23から出力されたセンサ情報を使用することにより、2枚以上のフレームの各々が生成されたときの挿入部2の先端20の位置を算出してもよい。情報生成部32は、算出された位置を示す座標情報と、長さ情報とを含む位置情報を生成してもよい。 The information generating unit 32 may use the sensor information output from the sensor 23 to calculate the position of the tip 20 of the insertion unit 2 when each of the two or more frames is generated. The information generating unit 32 may generate position information including coordinate information indicating the calculated position and length information.

ステップS105の後、図3に示すステップS106は実行されず、ステップS107が実行される。 After step S105, step S106 shown in FIG. 3 is not executed, and step S107 is executed.

図13に示す制御部3の代わりに、図7に示す制御部3aが使用されてもよい。あるいは、図19に示す制御部3cは、図7に示す処理部34を有してもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。 Instead of the control unit 3 shown in FIG. 13, the control unit 3a shown in FIG. 7 may be used. Alternatively, the control unit 3c shown in FIG. 19 may have the processing unit 34 shown in FIG. 7. The video editing unit 33 may adjust the number of frames in the first section by using the method in the first modified example of the first embodiment.

動画編集部33は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。 The video editing unit 33 may execute the video editing process shown in FIG. 9 or FIG. 10 instead of the video editing process shown in FIG. 4.

本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、センサによって生成されたセンサ情報に基づいて長さ情報を生成する。そのセンサは、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の長さを検出する。 Each aspect of the present invention may include the following modifications: The information generating unit 32 generates length information based on sensor information generated by a sensor. The sensor detects the length of the insertion portion 2 inserted into the subject when each of the two or more frames is generated.

フレームに写っている被写体の状態が、動画の2枚以上のフレームを使用する自己位置推定の精度に影響する。第2の実施形態の第2の変形例において、情報生成部32は、動画のフレームの状態によらずに挿入長を算出または検出することができる。 The state of the subject in the frame affects the accuracy of self-location estimation using two or more frames of a video. In a second variant of the second embodiment, the information generator 32 can calculate or detect the insertion length regardless of the state of the video frames.

(第3の実施形態)
本発明の第3の実施形態を説明する。図21は、第3の実施形態による内視鏡システム10の構成を示す。図21に示す内視鏡システム10は、内視鏡装置1dおよび制御装置6を有する。図2に示す構成と同じ構成の説明を省略する。
Third Embodiment
A third embodiment of the present invention will be described. Fig. 21 shows the configuration of an endoscope system 10 according to the third embodiment. The endoscope system 10 shown in Fig. 21 has an endoscope device 1d and a control device 6. Description of the same configuration as that shown in Fig. 2 will be omitted.

内視鏡装置1dは、挿入部2および制御部3dを有する。図21に示す挿入部2は、図2に示す挿入部2と同じである。制御部3dは、情報受付部30、記憶部31、および送信部36を有する。 The endoscope device 1d has an insertion section 2 and a control section 3d. The insertion section 2 shown in FIG. 21 is the same as the insertion section 2 shown in FIG. 2. The control section 3d has an information receiving section 30, a memory section 31, and a transmission section 36.

例えば、制御装置6は、クラウドサーバーである。制御装置6は、受信部60、記憶部61、情報生成部62、および動画編集部63を有する。 For example, the control device 6 is a cloud server. The control device 6 has a receiving unit 60, a memory unit 61, an information generating unit 62, and a video editing unit 63.

送信部36および受信部60の各々は、通信回路を有する通信機である。送信部36および受信部60は、通信を実行する。送信部36および受信部60が互いにケーブルで接続されてもよい。送信部36および受信部60は、無線通信を実行してもよい。送信部36は、記憶部31に記憶された動画ファイルを受信部60に送信する。受信部60は、送信部36によって送信された動画ファイルを受信する。 The transmitting unit 36 and the receiving unit 60 are each a communication device having a communication circuit. The transmitting unit 36 and the receiving unit 60 perform communication. The transmitting unit 36 and the receiving unit 60 may be connected to each other by a cable. The transmitting unit 36 and the receiving unit 60 may perform wireless communication. The transmitting unit 36 transmits a video file stored in the memory unit 31 to the receiving unit 60. The receiving unit 60 receives the video file transmitted by the transmitting unit 36.

記憶部61は、揮発性または不揮発性の記録媒体である。例えば、記憶部61は、RAM、DRAM、SRAM、ROM、EPROM、EEPROM、およびフラッシュメモリの少なくとも1つである。記憶部61は、受信部60によって受信された動画ファイルを記憶する。情報生成部62は、図2に示す情報生成部32の機能と同様の機能を持つ。動画編集部63は、図2に示す動画編集部33の機能と同様の機能を持つ。 The storage unit 61 is a volatile or non-volatile recording medium. For example, the storage unit 61 is at least one of a RAM, a DRAM, an SRAM, a ROM, an EPROM, an EEPROM, and a flash memory. The storage unit 61 stores video files received by the receiving unit 60. The information generating unit 62 has a function similar to that of the information generating unit 32 shown in FIG. 2. The video editing unit 63 has a function similar to that of the video editing unit 33 shown in FIG. 2.

情報生成部62および動画編集部63は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。情報生成部62および動画編集部63は、1つまたは複数のプロセッサを含んでもよい。情報生成部62および動画編集部63は、1つまたは複数の論理回路を含んでもよい。 The information generating unit 62 and the video editing unit 63 may be configured with at least one of a processor and a logic circuit. The information generating unit 62 and the video editing unit 63 may include one or more processors. The information generating unit 62 and the video editing unit 63 may include one or more logic circuits.

図22を使用することにより、第3の実施形態における動画記録処理について説明する。図22は、内視鏡装置1dによって実行される動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the third embodiment will be described using FIG. 22. FIG. 22 shows the procedure for the video recording process executed by the endoscope device 1d. The description of the same process as that shown in FIG. 3 will be omitted.

ステップS105の後、送信部36は、記憶部31に記憶された動画ファイルを受信部60に送信する(ステップS130)。ステップS130が実行されたとき、動画記録処理が終了する。 After step S105, the transmission unit 36 transmits the video file stored in the storage unit 31 to the reception unit 60 (step S130). When step S130 is executed, the video recording process ends.

図23を使用することにより、制御装置6によって実行される処理について説明する。図23は、制御装置6によって実行される処理の手順を示す。 The process executed by the control device 6 will be explained using FIG. 23. FIG. 23 shows the procedure of the process executed by the control device 6.

受信部60は、送信部36によって送信された動画ファイルを受信する(ステップS200)。受信部60によって受信された動画ファイルは記憶部61に保存される。 The receiving unit 60 receives the video file transmitted by the transmitting unit 36 (step S200). The video file received by the receiving unit 60 is stored in the memory unit 61.

ステップS200の後、情報生成部62は、動画ファイルに含まれる2枚以上のフレームを使用することにより自己位置推定を実行する。これにより、情報生成部62は、その2枚以上のフレームの各々に対する位置情報を生成する。情報生成部62は、生成された位置情報を各フレームに付加する。例えば、情報生成部62は位置情報をフレームに埋め込む(ステップS201)。 After step S200, the information generating unit 62 performs self-location estimation by using two or more frames included in the video file. As a result, the information generating unit 62 generates location information for each of the two or more frames. The information generating unit 62 adds the generated location information to each frame. For example, the information generating unit 62 embeds the location information in the frame (step S201).

ステップS201の後、動画編集部63は動画編集処理を実行する(ステップS202)。ステップS202における動画編集処理は、図4に示す動画編集処理と同じである。ステップS202が終了したとき、図23に示す処理が終了する。 After step S201, the video editing unit 63 executes a video editing process (step S202). The video editing process in step S202 is the same as the video editing process shown in FIG. 4. When step S202 ends, the process shown in FIG. 23 ends.

図21に示す制御部3dは、図7に示す処理部34を有してもよい。動画編集部63は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。 The control unit 3d shown in FIG. 21 may have the processing unit 34 shown in FIG. 7. The video editing unit 63 may adjust the number of frames in the first section by using the method in the first modified example of the first embodiment.

動画編集部63は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。 The video editing unit 63 may execute the video editing process shown in FIG. 9 or FIG. 10 instead of the video editing process shown in FIG. 4.

内視鏡装置1dは、図13に示すセンサ23および図19に示すセンサ35の少なくとも1つを有してもよい。図22に示す動画記録処理において、図18に示すステップS110およびステップS111が実行されてもよい。図22に示す動画記録処理において、図20に示すステップS120が実行されてもよい。 The endoscope device 1d may have at least one of the sensor 23 shown in FIG. 13 and the sensor 35 shown in FIG. 19. In the video recording process shown in FIG. 22, steps S110 and S111 shown in FIG. 18 may be executed. In the video recording process shown in FIG. 22, step S120 shown in FIG. 20 may be executed.

第3の実施形態において内視鏡システム10は、動画再生時のユーザーの負担を低減させることができる。また、第3の実施形態において内視鏡システム10は、動画再生時にユーザーに重要な箇所を容易に確認させることができる。 In the third embodiment, the endoscope system 10 can reduce the burden on the user when playing back a video. Also, in the third embodiment, the endoscope system 10 can allow the user to easily check important points when playing back a video.

一般的に、多くの計算リソースが自己位置推定のための画像処理に必要である。その画像処理が内視鏡装置において実行される場合、内視鏡装置の消費電流が増大する、または内視鏡装置が大型化する。制御装置6がその画像処理を実行するため、そのような問題の発生が抑制される。 Generally, image processing for self-position estimation requires a large amount of computational resources. If that image processing is performed in an endoscope device, the current consumption of the endoscope device increases, or the endoscope device becomes larger. Because the control device 6 performs that image processing, the occurrence of such problems is suppressed.

(第3の実施形態の変形例)
本発明の第3の実施形態の変形例を説明する。第3の実施形態の変形例において、内視鏡装置1dは、撮像素子22によって生成されたフレームを制御装置6にリアルタイムに送信する。第3の実施形態の変形例において、内視鏡装置1dは、記憶部31を有する必要はない。
(Modification of the third embodiment)
A modified example of the third embodiment of the present invention will be described. In the modified example of the third embodiment, the endoscope device 1d transmits frames generated by the image sensor 22 to the control device 6 in real time. In the modified example of the third embodiment, the endoscope device 1d does not need to have the storage unit 31.

図24および図25を使用することにより、第3の実施形態の変形例における動画記録処理について説明する。図24は、内視鏡装置1dによって実行される動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the modified example of the third embodiment will be described using Figures 24 and 25. Figure 24 shows the procedure for the video recording process executed by the endoscope device 1d. A description of the same process as that shown in Figure 3 will be omitted.

ステップS103の後、送信部36は、フレームを受信部60に送信する(ステップS140)。ステップS140の後、ステップS104が実行される。情報受付部30が記録終了指示を受け付けた場合、動画記録処理が終了する。 After step S103, the transmitting unit 36 transmits the frame to the receiving unit 60 (step S140). After step S140, step S104 is executed. If the information receiving unit 30 receives an instruction to end recording, the video recording process ends.

図25は、制御装置6によって実行される動画記録処理の手順を示す。図23に示す処理と同じ処理の説明を省略する。 Figure 25 shows the procedure for video recording processing executed by the control device 6. Explanation of the same processing as that shown in Figure 23 will be omitted.

受信部60は、送信部36によって送信されたフレームを受信する(ステップS210)。受信部60によって受信されたフレームは記憶部61に保存される。 The receiving unit 60 receives the frame transmitted by the transmitting unit 36 (step S210). The frame received by the receiving unit 60 is stored in the memory unit 61.

受信部60が、送信部36から送信された全てのフレームを受信するまで、ステップS210が繰り返される。受信部60が、送信部36から送信された全てのフレームを受信した場合(ステップS211)、動画編集部63は、記憶部61に保存されたフレームを含む動画ファイルを生成する(ステップS212)。動画ファイルは記憶部61に保存される。ステップS212の後、ステップS202が実行される。 Step S210 is repeated until the receiving unit 60 receives all the frames transmitted from the transmitting unit 36. When the receiving unit 60 receives all the frames transmitted from the transmitting unit 36 (step S211), the video editing unit 63 generates a video file including the frames stored in the storage unit 61 (step S212). The video file is stored in the storage unit 61. After step S212, step S202 is executed.

第3の実施形態の変形例において、内視鏡装置1dは動画ファイルを記憶する必要はない。そのため、内視鏡装置1dにおける記憶容量が節約される。 In a modification of the third embodiment, the endoscope device 1d does not need to store video files. This saves storage capacity in the endoscope device 1d.

(第4の実施形態)
本発明の第4の実施形態を説明する。図21に示す内視鏡システム10は、図26に示す内視鏡システム10eに変更される。図26は、内視鏡システム10eの構成を示す。図21に示す構成と同じ構成の説明を省略する。
(Fourth embodiment)
A fourth embodiment of the present invention will be described. The endoscope system 10 shown in Fig. 21 is changed to an endoscope system 10e shown in Fig. 26. Fig. 26 shows the configuration of the endoscope system 10e. The description of the same configuration as that shown in Fig. 21 will be omitted.

図21に示す内視鏡装置1dは、図26に示す内視鏡装置1eに変更される。図21に示す制御部3dは、図26に示す制御部3eに変更される。制御部3eは、情報受付部30、記憶部31、送信部36、および受信部37を有する。 The endoscope device 1d shown in FIG. 21 is changed to an endoscope device 1e shown in FIG. 26. The control unit 3d shown in FIG. 21 is changed to a control unit 3e shown in FIG. 26. The control unit 3e has an information receiving unit 30, a memory unit 31, a transmitting unit 36, and a receiving unit 37.

図21に示す制御装置6は、図26に示す制御装置6eに変更される。制御装置6eは、受信部60、記憶部61、情報生成部62、動画編集部63、情報受付部64、および送信部65を有する。 The control device 6 shown in FIG. 21 is changed to a control device 6e shown in FIG. 26. The control device 6e has a receiving unit 60, a storage unit 61, an information generating unit 62, a video editing unit 63, an information accepting unit 64, and a transmitting unit 65.

情報受付部64は、図1に示す情報受付部30の機能と同様の機能を持つ。制御装置6eは、図26に示されていない操作部を有する。ユーザーは、制御装置6の操作部を操作することにより、操作情報を制御装置6eに入力する。制御装置6の操作部は、ユーザーによって入力された情報を出力する。情報受付部64は、操作情報を受け付ける。情報受付部64は、操作情報を送信部65に出力する。 The information receiving unit 64 has the same function as the information receiving unit 30 shown in FIG. 1. The control device 6e has an operation unit not shown in FIG. 26. A user inputs operation information to the control device 6e by operating the operation unit of the control device 6. The operation unit of the control device 6 outputs the information input by the user. The information receiving unit 64 receives the operation information. The information receiving unit 64 outputs the operation information to the transmission unit 65.

送信部65および受信部37の各々は、通信回路を有する通信機である。送信部65および受信部37は、通信を実行する。送信部65および受信部37が互いにケーブルで接続されてもよい。送信部65および受信部37は、無線通信を実行してもよい。送信部65は、情報受付部64から出力された操作情報を受信部37に送信する。受信部37は、送信部65によって送信された操作情報を受信する。受信部37は、受信された操作情報を情報受付部30に出力する。 The transmitting unit 65 and the receiving unit 37 are each a communication device having a communication circuit. The transmitting unit 65 and the receiving unit 37 perform communication. The transmitting unit 65 and the receiving unit 37 may be connected to each other by a cable. The transmitting unit 65 and the receiving unit 37 may perform wireless communication. The transmitting unit 65 transmits operation information output from the information receiving unit 64 to the receiving unit 37. The receiving unit 37 receives the operation information transmitted by the transmitting unit 65. The receiving unit 37 outputs the received operation information to the information receiving unit 30.

送信部36および受信部37は1つの通信機として一体化されてもよい。送信部65および受信部60は1つの通信機として一体化されてもよい。 The transmitter 36 and the receiver 37 may be integrated into a single communication device. The transmitter 65 and the receiver 60 may be integrated into a single communication device.

情報受付部30は、受信部37から出力された操作情報を受け付ける。情報受付部30は、操作情報を受け付けた後、第1の実施形態における動作と同じ動作を実施する。 The information receiving unit 30 receives the operation information output from the receiving unit 37. After receiving the operation information, the information receiving unit 30 performs the same operation as in the first embodiment.

内視鏡装置1eは、図22に示す処理を実行し、かつ制御装置6eは、図23に示す処理を実行する。あるいは、内視鏡装置1eは、図24に示す処理を実行し、かつ制御装置6eは、図25に示す処理を実行する。 The endoscope device 1e executes the process shown in FIG. 22, and the control device 6e executes the process shown in FIG. 23. Alternatively, the endoscope device 1e executes the process shown in FIG. 24, and the control device 6e executes the process shown in FIG. 25.

情報受付部30は、操作情報をフレームに付加する必要はない。情報受付部64は、操作情報を記憶部61に保存されたフレームに付加してもよい。 The information receiving unit 30 does not need to add the operation information to the frame. The information receiving unit 64 may add the operation information to the frame stored in the storage unit 61.

第4の実施形態において、第3の実施形態における効果と同様の効果が得られる。 The fourth embodiment provides the same effect as the third embodiment.

以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments and their variations. Addition, omission, substitution, and other modifications of the configuration are possible without departing from the spirit of the present invention. Furthermore, the present invention is not limited to the above description, but is limited only by the scope of the attached claims.

1,1a,1b,1c,1d,1e 内視鏡装置
2,2b 挿入部
3,3a,3c,3d,3e 制御部
4 操作部
5 表示部
6,6e 制御装置
10,10e 内視鏡システム
20 先端
21 湾曲部
22 撮像素子
23,35 センサ
30,64 情報受付部
31,61 記憶部
32,62 情報生成部
33,63 動画編集部
34 処理部
36,65 送信部
37,60 受信部
REFERENCE SIGNS LIST 1, 1a, 1b, 1c, 1d, 1e Endoscope device 2, 2b Insertion section 3, 3a, 3c, 3d, 3e Control section 4 Operation section 5 Display section 6, 6e Control device 10, 10e Endoscope system 20 Tip 21 Bending section 22 Imaging element 23, 35 Sensor 30, 64 Information receiving section 31, 61 Storage section 32, 62 Information generating section 33, 63 Video editing section 34 Processing section 36, 65 Transmission section 37, 60 Reception section

Claims (14)

被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、
制御部と、
を有し、
前記制御部は、
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、
前記動画を編集する動画編集部と、
を有し、
前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、
前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す
内視鏡装置。
an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames;
A control unit;
having
The control unit is
an information receiving unit that receives operation information indicating the content of an operation performed by a user;
an information generating unit that generates length information indicating a length of a portion of the insertion portion that is inserted into the subject when each of the two or more frames is generated;
A video editing unit that edits the video;
having
the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
the video editing unit reduces a number of frames per unit length in the second section based on the length information;
an endoscope apparatus, wherein the video editing unit adjusts the number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
前記動画編集部は、前記第2の区間における前記動画が再生されている状態における前記挿入部が前記被検体に挿入される見かけの速さが一定となるように前記第2の区間におけるフレーム数を調整する
請求項1に記載の内視鏡装置。
The endoscope device according to claim 1 , wherein the video editing unit adjusts the number of frames in the second section so that an apparent speed at which the insertion section is inserted into the subject during playback of the video in the second section is constant.
前記情報生成部は、前記2枚以上のフレームを使用することにより、前記2枚以上のフレームの各々が生成されたタイミングにおける前記撮像素子の位置を推定し、推定された前記位置に基づいて前記長さを推定する
請求項1に記載の内視鏡装置。
The endoscope device according to claim 1 , wherein the information generation unit estimates a position of the imaging element at a timing when each of the two or more frames is generated by using the two or more frames, and estimates the length based on the estimated position.
前記情報生成部は、前記2枚以上のフレームに加えて、センサ情報を使用することにより前記位置を推定し、前記センサ情報は、第1のセンサによって生成された第1のセンサ情報、第2のセンサによって生成された第2のセンサ情報、および第3のセンサによって生成された第3のセンサ情報の少なくとも1つを含み、前記第1のセンサ情報は前記長さを示し、前記第2のセンサ情報は前記挿入部の先端の加速度を示し、前記第3のセンサ情報は、前記先端の角速度を示す
請求項3に記載の内視鏡装置。
4. The endoscope device according to claim 3, wherein the information generating unit estimates the position by using sensor information in addition to the two or more frames, the sensor information including at least one of first sensor information generated by a first sensor, second sensor information generated by a second sensor, and third sensor information generated by a third sensor, the first sensor information indicating the length, the second sensor information indicating an acceleration of a tip of the insertion portion, and the third sensor information indicating an angular velocity of the tip.
前記動画編集部は、前記位置の変化の軌跡が最短となるように前記2枚以上のフレームの一部を削除する
請求項3に記載の内視鏡装置。
The endoscope apparatus according to claim 3 , wherein the video editing unit deletes a part of the two or more frames so as to minimize a trajectory of the change in position.
前記情報生成部は、前記長さを検出するセンサによって生成されたセンサ情報に基づいて前記長さ情報を生成する
請求項1に記載の内視鏡装置。
The endoscope apparatus according to claim 1 , wherein the information generating unit generates the length information based on sensor information generated by a sensor that detects the length.
前記操作情報は、静止画を取得する指示、静止画を保存する指示、計測を実行する指示、前記挿入部を湾曲させる指示、画像処理の設定を変更する指示、ラベルを前記動画に添付する指示、および情報を静止画に添付する指示の少なくとも1つを含む
請求項1に記載の内視鏡装置。
The endoscopic device according to claim 1, wherein the operation information includes at least one of an instruction to acquire a still image, an instruction to save a still image, an instruction to perform a measurement, an instruction to bend the insertion portion, an instruction to change image processing settings, an instruction to attach a label to the video, and an instruction to attach information to a still image.
前記情報は、メモおよび傷の評価結果を含む
請求項7に記載の内視鏡装置。
The endoscopic device of claim 7 , wherein the information includes notes and wound assessment results.
前記第2の区間は、1つ以上の部分区間を含み、
前記1つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値よりも大きい場合、前記動画編集部は、前記1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く
請求項1に記載の内視鏡装置。
the second interval includes one or more subintervals;
The endoscope device according to claim 1 , wherein when the number of frames per unit length in at least one of the one or more partial sections is greater than a predetermined value, the video editing unit thins out at least one frame in at least one of the one or more partial sections.
前記第2の区間は、2つ以上の部分区間を含み、
前記2つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値以下である場合、前記動画編集部は、前記2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する
請求項9に記載の内視鏡装置。
the second interval includes two or more subintervals;
The endoscope device according to claim 9 , wherein when the number of frames per unit length in at least one of the two or more partial sections is equal to or less than a predetermined value, the video editing unit adds at least one frame to at least one of the two or more partial sections.
前記第1の区間における1枚以上のフレームは、前記ユーザーが前記所定の操作を実施した前記タイミングにおいて生成された1枚のフレームと、前記タイミングよりも前に生成された1枚以上のフレームと、前記タイミングよりも後に生成された1枚以上のフレームとを含む
請求項1に記載の内視鏡装置。
The endoscope device according to claim 1, wherein the one or more frames in the first section include one frame generated at the timing when the user performs the specified operation, one or more frames generated before the timing, and one or more frames generated after the timing.
内視鏡装置および制御装置を有し、
前記内視鏡装置は、
被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、
前記動画を前記制御装置に送信する送信部と、
を有し、
前記制御装置は、
前記動画を前記内視鏡装置から受信する受信部と、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、
前記動画を編集する動画編集部と、
を有し、
前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、
前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す
内視鏡システム。
An endoscope device and a control device are provided.
The endoscope device includes:
an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames;
an information receiving unit that receives operation information indicating the content of an operation performed by a user;
A transmission unit that transmits the video to the control device;
having
The control device includes:
a receiving unit that receives the video from the endoscope device;
an information generating unit that generates length information indicating a length of a portion of the insertion portion that is inserted into the subject when each of the two or more frames is generated;
A video editing unit that edits the video;
having
the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
the video editing unit reduces a number of frames per unit length in the second section based on the length information;
an endoscope system, wherein the video editing unit adjusts the number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置の作動方法であって、
前記作動方法は、
ユーザーによって実施された操作の内容を示す操作情報を前記制御部の情報受付部が受け付ける情報受付ステップと、
前記制御部の情報生成部が、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、
前記制御部の動画編集部が前記動画を編集する動画編集ステップと、
を有し、
前記動画編集ステップは、前記動画編集部が、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、
前記動画編集部が、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、
を有する
内視鏡装置の作動方法。
1. A method for operating an endoscope apparatus including an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames, and a control section, the method comprising the steps of:
The method of operation includes:
an information receiving step in which an information receiving unit of the control unit receives operation information indicating the content of an operation performed by a user;
an information generating step in which an information generating unit of the control unit generates length information indicating a length of a portion of the insertion portion inserted into the subject when each of the two or more frames is generated;
a video editing step in which a video editing unit of the control unit edits the video;
having
The video editing step includes a classification step in which the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
a second section editing step of reducing a number of frames per unit length in the second section based on the length information by the video editing unit;
a first section editing step of adjusting a number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating a number of frames per unit length in the first section, and the second number of frames indicating a number of frames per unit length in the second section;
A method for operating an endoscope apparatus comprising the steps of:
被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置のコンピュータに、
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付ステップと、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、
前記動画を編集する動画編集ステップと、
を実行させるためのプログラムであって、
前記動画編集ステップは、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、
前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、
第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、
を有するプログラム。
A computer of an endoscope apparatus including an insertion section that can be inserted into a subject and has an image sensor that generates a moving image including two or more frames, and a control section,
an information receiving step of receiving operation information indicating the content of an operation performed by a user;
an information generating step of generating length information indicating a length of a portion of the insertion section inserted into the subject when each of the two or more frames is generated;
a video editing step of editing the video;
A program for executing
the video editing step includes a classification step of classifying the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
a second section editing step of reducing the number of frames per unit length in the second section based on the length information;
a first section editing step of adjusting a number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating a number of frames per unit length in the first section, and the second number of frames indicating a number of frames per unit length in the second section;
A program having:
JP2021095159A 2021-06-07 2021-06-07 ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM Active JP7619893B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021095159A JP7619893B2 (en) 2021-06-07 2021-06-07 ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021095159A JP7619893B2 (en) 2021-06-07 2021-06-07 ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2022187239A JP2022187239A (en) 2022-12-19
JP7619893B2 true JP7619893B2 (en) 2025-01-22

Family

ID=84525409

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021095159A Active JP7619893B2 (en) 2021-06-07 2021-06-07 ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP7619893B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290820A (en) 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video collection device, video search device, and video collection and search system
JP2007313170A (en) 2006-05-29 2007-12-06 Olympus Corp Endoscope system and endoscope observation method
JP2008301968A (en) 2007-06-06 2008-12-18 Olympus Medical Systems Corp Endoscopic image processing device
US20110032347A1 (en) 2008-04-15 2011-02-10 Gerard Lacey Endoscopy system with motion sensors
JP2012014129A (en) 2010-07-05 2012-01-19 Olympus Corp Endoscope apparatus and examination method using the same
JP2014076174A (en) 2012-10-10 2014-05-01 Olympus Corp Insertion system having insertion part and insertion member
JP2014165530A (en) 2013-02-21 2014-09-08 Olympus Corp Image processing system
WO2018043550A1 (en) 2016-08-31 2018-03-08 Hoya株式会社 Electronic endoscope processor and electronic endoscopic system
JP2018057799A (en) 2016-09-29 2018-04-12 富士フイルム株式会社 Endoscope system and method of driving endoscope system
JP2018180275A (en) 2017-04-13 2018-11-15 オリンパス株式会社 Endoscope device, endoscope system, and method for controlling display of endoscope image
JP2019056764A (en) 2017-09-20 2019-04-11 オリンパス株式会社 Endoscope apparatus, endoscope system and inspection method
WO2019198637A1 (en) 2018-04-13 2019-10-17 富士フイルム株式会社 Image processing device, endoscope system, and image processing method

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001290820A (en) 2000-01-31 2001-10-19 Mitsubishi Electric Corp Video collection device, video search device, and video collection and search system
JP2007313170A (en) 2006-05-29 2007-12-06 Olympus Corp Endoscope system and endoscope observation method
JP2008301968A (en) 2007-06-06 2008-12-18 Olympus Medical Systems Corp Endoscopic image processing device
US20110032347A1 (en) 2008-04-15 2011-02-10 Gerard Lacey Endoscopy system with motion sensors
JP2012014129A (en) 2010-07-05 2012-01-19 Olympus Corp Endoscope apparatus and examination method using the same
JP2014076174A (en) 2012-10-10 2014-05-01 Olympus Corp Insertion system having insertion part and insertion member
JP2014165530A (en) 2013-02-21 2014-09-08 Olympus Corp Image processing system
WO2018043550A1 (en) 2016-08-31 2018-03-08 Hoya株式会社 Electronic endoscope processor and electronic endoscopic system
JP2018057799A (en) 2016-09-29 2018-04-12 富士フイルム株式会社 Endoscope system and method of driving endoscope system
JP2018180275A (en) 2017-04-13 2018-11-15 オリンパス株式会社 Endoscope device, endoscope system, and method for controlling display of endoscope image
JP2019056764A (en) 2017-09-20 2019-04-11 オリンパス株式会社 Endoscope apparatus, endoscope system and inspection method
WO2019198637A1 (en) 2018-04-13 2019-10-17 富士フイルム株式会社 Image processing device, endoscope system, and image processing method

Also Published As

Publication number Publication date
JP2022187239A (en) 2022-12-19

Similar Documents

Publication Publication Date Title
JP5361592B2 (en) Endoscope apparatus, measurement method, and program
US9214139B2 (en) Image display apparatus and image display method
JP5073564B2 (en) Endoscope device for measurement and program
CN114332028B (en) Endoscopic image processing method, device, readable medium and electronic device
US11055865B2 (en) Image acquisition device and method of operating image acquisition device
JP7116925B2 (en) Observation device operating method, observation device, and program
US10964044B2 (en) Method of operating measurement device, measurement device, and recording medium
JP5437087B2 (en) Endoscope apparatus and program
JP2018197674A (en) Operation method of measuring device, measuring device, measurement system, three-dimensional shape restoring device, and program
JP2020134242A (en) Measuring method, measuring device and program
CN106662923A (en) Information processing device, information processing method and program
KR100412932B1 (en) Method of displaying and evaluating motion data using in motion game apparatus
JP2011134113A (en) Apparatus and method for presenting information and program
US20250180353A1 (en) Image-processing method, image-processing device, and recording medium
JP7619893B2 (en) ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM
JP5307407B2 (en) Endoscope apparatus and program
JP4855912B2 (en) Endoscope insertion shape analysis system
JP5253109B2 (en) Endoscope apparatus and endoscopic image program
JP2011170276A (en) Endoscope device and program
JP7720190B2 (en) Insertion support system, insertion support method, and program
JP4487077B2 (en) 3D display method using video images continuously acquired by a single imaging device
JP2014147572A (en) Endoscope device and program
JP7720180B2 (en) Image processing method, image processing device, and program
JP2022159806A (en) DATA PROCESSING METHOD, DATA PROCESSING APPARATUS, AND PROGRAM
JP2024104192A (en) Image processing device, method and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20241120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250109

R150 Certificate of patent or registration of utility model

Ref document number: 7619893

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150