JP7619893B2 - ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM - Google Patents
ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM Download PDFInfo
- Publication number
- JP7619893B2 JP7619893B2 JP2021095159A JP2021095159A JP7619893B2 JP 7619893 B2 JP7619893 B2 JP 7619893B2 JP 2021095159 A JP2021095159 A JP 2021095159A JP 2021095159 A JP2021095159 A JP 2021095159A JP 7619893 B2 JP7619893 B2 JP 7619893B2
- Authority
- JP
- Japan
- Prior art keywords
- frames
- section
- information
- unit
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 114
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000003780 insertion Methods 0.000 claims description 205
- 230000037431 insertion Effects 0.000 claims description 205
- 238000012545 processing Methods 0.000 claims description 41
- 238000003384 imaging method Methods 0.000 claims description 24
- 230000001133 acceleration Effects 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 12
- 230000005540 biological transmission Effects 0.000 claims description 10
- 238000005452 bending Methods 0.000 description 21
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 13
- 230000033001 locomotion Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000011156 evaluation Methods 0.000 description 9
- 101000854908 Homo sapiens WD repeat-containing protein 11 Proteins 0.000 description 7
- 102100020705 WD repeat-containing protein 11 Human genes 0.000 description 7
- 238000007689 inspection Methods 0.000 description 6
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 4
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Television Signal Processing For Recording (AREA)
Description
本発明は、内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムに関する。 The present invention relates to an endoscope device, an endoscope system, an operation method for an endoscope device, and a program.
被検体の内部の傷および腐食等の検査に工業用の内視鏡装置が使用されている。被検体は、ボイラー、パイプ、および航空機エンジン等である。内視鏡装置は、被検体の動画を生成する機能を持つ。動画を自動で編集するための以下の技術が知られている。その技術は、Visual Simultaneous Localization and Mapping(Visual SLAM)などを使用することにより、動画の各フレームが生成されたときの内視鏡の先端部の位置および姿勢を推定する。また、その技術は、その位置とその姿勢とを示す情報を各フレームに関連付け、かつその情報を管理する。 Industrial endoscope devices are used to inspect the inside of a specimen for damage, corrosion, and the like. The specimens include boilers, pipes, and aircraft engines. The endoscope device has a function for generating videos of the specimen. The following technology is known for automatically editing videos. This technology uses Visual Simultaneous Localization and Mapping (Visual SLAM) or the like to estimate the position and orientation of the tip of the endoscope when each frame of the video is generated. This technology also associates information indicating the position and orientation with each frame and manages this information.
特許文献1に開示された技術は、カメラが一定の速さで移動しながら撮影を実施したときに生成された動画を編集する方法を提供する。その技術は、動画内の各フレームに関連付けられた撮影位置情報に基づいてフレームを間引く。特許文献1の図4および図17に示されるように、その技術は、一定の距離毎に生成された複数のフレームを抽出し、かつそのフレームをつなぎ合わせる。これにより、その技術は、カメラが一定の速さで移動しながら撮影を実施したときに生成された動画と同様の動画を生成する。
The technology disclosed in
特許文献2に開示された技術は、動画の再生速度を変更する方法を提供する。その技術は、画像処理を実行することにより、特徴部分がフレームに映っている期間を抽出する。その技術は、その期間における動画の再生速度を遅くする。これにより、特徴部分の動画がスローモーションで再生される。
The technology disclosed in
従来技術では、検査時に生成された検査動画をユーザーが閲覧するときの負担が大きい。撮影時間が長い検査動画をユーザーが閲覧するとき、閲覧に時間がかかり、ユーザーの負担が大きい。特に、被検体が複雑かつ大きい場合、検査動画の撮影時間は非常に長い。また、内視鏡が被検体に挿入されるときの速さ(挿入速さ)は一定ではない。ユーザーが早送り再生を行い動画を閲覧することがある。一般的な早送り再生では、動画の再生速度は一定であるけれども、内視鏡は、実際の挿入速さに応じた見かけの速さで被検体に挿入される。そのため、検査動画の再生時に、画像に写っている被写体の移動が速すぎる、または遅すぎる場面が発生し、ユーザーが検査動画を閲覧しづらい。 In conventional technology, the burden on the user is great when viewing the examination video generated during the examination. When the user views an examination video that takes a long time to shoot, the viewing takes a long time, which places a great burden on the user. In particular, when the subject is complex and large, the shooting time of the examination video is very long. In addition, the speed at which the endoscope is inserted into the subject (insertion speed) is not constant. The user may view the video by fast-forwarding. In general fast-forwarding playback, the playback speed of the video is constant, but the endoscope is inserted into the subject at an apparent speed that corresponds to the actual insertion speed. As a result, when the examination video is played back, there are scenes in which the subject in the image moves too fast or too slow, making it difficult for the user to view the examination video.
特許文献1に開示された技術は、カメラの速さが一定となるように動画のフレームを間引く。しかしながら、その技術では、ユーザーが重要な箇所を見逃す可能性がある。
The technology disclosed in
特許文献2に開示された技術は、画像を解析することにより特徴点を抽出し、その特徴点がフレームに映っている期間を強調する。例えば、その技術は、その期間において動画がスローモーションで再生されるように動画の再生速度を遅くする。検査者が検査中に注目する箇所は、そのような特徴点を持つ箇所とは限らない。そのため、検査動画が再生されたとき、検査者が注目する箇所においてスローモーション再生が実行されるとは限らない。その結果、検査動画の閲覧者は、検査者が注目する箇所と異なる箇所に注目する可能性がある。閲覧者が検査結果の承認を実施するとき、検査者にとって重要な箇所を正しく評価することができない。そのため、検査全体の効率が低下する。
The technology disclosed in
本発明は、動画再生時のユーザーの負担を低減させることができ、かつ動画再生時にユーザーに重要な箇所を容易に確認させることができる内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムを提供することを目的とする。 The present invention aims to provide an endoscope device, an endoscope system, an operation method for an endoscope device, and a program that can reduce the burden on the user when playing back a video and allow the user to easily check important points when playing back a video.
被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部と、を有し、前記制御部は、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、前記動画を編集する動画編集部と、を有し、前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す内視鏡装置である。 The device has an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, the control section having an information receiving section that receives operation information indicating the content of an operation performed by a user, an information generating section that generates length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing section that edits the video, and the video editing section divides the two or more frames into one or more frames in a first section and one or more frames in a second section that are different from the first section based on the operation information. and one or more frames in a second section, the first section including a timing when a user performs a predetermined operation, the video editing unit reduces the number of frames per unit length in the second section based on the length information, the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicates the number of frames per unit length in the first section, and the second number of frames indicates the number of frames per unit length in the second section.
本発明の内視鏡装置において、前記動画編集部は、前記第2の区間における前記動画が再生されている状態における前記挿入部が前記被検体に挿入される見かけの速さが一定となるように前記第2の区間におけるフレーム数を調整する。 In the endoscope device of the present invention, the video editing unit adjusts the number of frames in the second section so that the apparent speed at which the insertion section is inserted into the subject during playback of the video in the second section is constant.
本発明の内視鏡装置において、前記情報生成部は、前記2枚以上のフレームを使用することにより、前記2枚以上のフレームの各々が生成されたタイミングにおける前記撮像素子の位置を推定し、推定された前記位置に基づいて前記長さを推定する。 In the endoscope device of the present invention, the information generating unit uses the two or more frames to estimate the position of the image sensor at the time when each of the two or more frames was generated, and estimates the length based on the estimated position.
本発明の内視鏡装置において、前記情報生成部は、前記2枚以上のフレームに加えて、センサ情報を使用することにより前記位置を推定し、前記センサ情報は、第1のセンサによって生成された第1のセンサ情報、第2のセンサによって生成された第2のセンサ情報、および第3のセンサによって生成された第3のセンサ情報の少なくとも1つを含み、前記第1のセンサ情報は前記長さを示し、前記第2のセンサ情報は前記挿入部の先端の加速度を示し、前記第3のセンサ情報は、前記先端の角速度を示す。 In the endoscope device of the present invention, the information generating unit estimates the position by using sensor information in addition to the two or more frames, and the sensor information includes at least one of first sensor information generated by a first sensor, second sensor information generated by a second sensor, and third sensor information generated by a third sensor, the first sensor information indicating the length, the second sensor information indicating the acceleration of the tip of the insertion section, and the third sensor information indicating the angular velocity of the tip.
本発明の内視鏡装置において、前記動画編集部は、前記位置の変化の軌跡が最短となるように前記2枚以上のフレームの一部を削除する。 In the endoscope device of the present invention, the video editing unit deletes a portion of the two or more frames so that the trajectory of the position change is the shortest.
本発明の内視鏡装置において、前記情報生成部は、前記長さを検出するセンサによって生成されたセンサ情報に基づいて前記長さ情報を生成する。 In the endoscope device of the present invention, the information generating unit generates the length information based on sensor information generated by a sensor that detects the length.
本発明の内視鏡装置において、前記操作情報は、静止画を取得する指示、静止画を保存する指示、計測を実行する指示、前記挿入部を湾曲させる指示、画像処理の設定を変更する指示、ラベルを前記動画に添付する指示、および情報を静止画に添付する指示の少なくとも1つを含む。 In the endoscope device of the present invention, the operation information includes at least one of an instruction to acquire a still image, an instruction to save a still image, an instruction to perform a measurement, an instruction to bend the insertion section, an instruction to change the image processing settings, an instruction to attach a label to the video, and an instruction to attach information to a still image.
本発明の内視鏡装置において、前記情報は、メモおよび傷の評価結果を含む。 In the endoscopic device of the present invention, the information includes notes and wound evaluation results.
本発明の内視鏡装置において、前記第2の区間は、1つ以上の部分区間を含み、前記1つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値よりも大きい場合、前記動画編集部は、前記1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く。 In the endoscope device of the present invention, the second section includes one or more subsections, and if the number of frames per unit length in at least one of the one or more subsections is greater than a predetermined value, the video editing unit thins out at least one frame in at least one of the one or more subsections.
本発明の内視鏡装置において、前記第2の区間は、2つ以上の部分区間を含み、前記2つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値以下である場合、前記動画編集部は、前記2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する。 In the endoscope device of the present invention, the second section includes two or more subsections, and if the number of frames per unit length in at least one of the two or more subsections is equal to or less than a predetermined value, the video editing unit adds at least one frame to at least one of the two or more subsections.
本発明の内視鏡装置において、前記第1の区間における1枚以上のフレームは、前記ユーザーが前記所定の操作を実施した前記タイミングにおいて生成された1枚のフレームと、前記タイミングよりも前に生成された1枚以上のフレームと、前記タイミングよりも後に生成された1枚以上のフレームとを含む。 In the endoscope device of the present invention, the one or more frames in the first section include one frame generated at the timing when the user performs the specified operation, one or more frames generated before the timing, and one or more frames generated after the timing.
本発明は、内視鏡装置および制御装置を有し、前記内視鏡装置は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、前記動画を前記制御装置に送信する送信部と、を有し、前記制御装置は、前記動画を前記内視鏡装置から受信する受信部と、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、前記動画を編集する動画編集部と、を有し、前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す内視鏡システムである。 The present invention includes an endoscope device and a control device, the endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, an information receiving section that receives operation information indicating the content of an operation performed by a user, and a transmission section that transmits the video to the control device, the control device having a receiving section that receives the video from the endoscope device, an information generating section that generates length information indicating the length of the portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing section that edits the video, the video editing section editing the two or more frames based on the operation information. An endoscope system that classifies frames into one or more frames in a first section and one or more frames in a second section different from the first section, the first section includes a timing when a user performs a predetermined operation, the video editing unit reduces the number of frames per unit length in the second section based on the length information, the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicates the number of frames per unit length in the first section, and the second number of frames indicates the number of frames per unit length in the second section.
本発明は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置の作動方法であって、前記作動方法は、ユーザーによって実施された操作の内容を示す操作情報を前記制御部の情報受付部が受け付ける情報受付ステップと、前記制御部の情報生成部が、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、前記制御部の動画編集部が前記動画を編集する動画編集ステップと、を有し、前記動画編集ステップは、前記動画編集部が、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、前記動画編集部が、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、を有する内視鏡装置の作動方法である。 The present invention relates to an operation method for an endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, the operation method including an information receiving step in which an information receiving section of the control section receives operation information indicating the content of an operation performed by a user, an information generating step in which an information generating section of the control section generates length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing step in which a video editing section of the control section edits the video, the video editing step including editing the video by dividing the two or more frames into one or more frames in a first section and one or more frames in a second section based on the operation information. and one or more frames in a second section different from the first section, the first section including the timing when the user performed a predetermined operation; a second section editing step in which the video editing unit reduces the number of frames per unit length in the second section based on the length information; and a first section editing step in which the video editing unit adjusts the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
本発明は、被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、制御部とを有する内視鏡装置のコンピュータに、ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付ステップと、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、前記動画を編集する動画編集ステップと、を実行させるためのプログラムであって、前記動画編集ステップは、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、を有するプログラムである。 The present invention is a program for causing a computer of an endoscope device having an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a video including two or more frames, and a control section, to execute an information receiving step of receiving operation information indicating the content of an operation performed by a user, an information generating step of generating length information indicating the length of a portion of the insertion section that is inserted into the subject when each of the two or more frames is generated, and a video editing step of editing the video, in which the video editing step divides the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information. a classification step of classifying the first section into one or more frames between the first section and the second section, the first section including the timing at which the user performed a predetermined operation; a second section editing step of reducing the number of frames per unit length in the second section based on the length information; and a first section editing step of adjusting the number of frames in the first section so that the first number of frames is greater than the second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
本発明によれば、内視鏡装置、内視鏡システム、内視鏡装置の作動方法、およびプログラムは、動画再生時のユーザーの負担を低減させることができ、かつ動画再生時にユーザーに重要な箇所を容易に確認させることができる。 According to the present invention, an endoscope device, an endoscope system, an operation method for an endoscope device, and a program can reduce the burden on a user when playing back a video, and can allow a user to easily check important points when playing back a video.
以下、図面を参照し、本発明の実施形態を説明する。 The following describes an embodiment of the present invention with reference to the drawings.
(第1の実施形態)
本発明の第1の実施形態を説明する。図1は、第1の実施形態による内視鏡装置1の外観を示す。図1に示す内視鏡装置1は、挿入部2、制御部3、操作部4、および表示部5を有する。
(First embodiment)
A first embodiment of the present invention will be described below. Fig. 1 shows the appearance of an
内視鏡装置1は、被写体(被検体)を撮像し、画像を生成する。検査者は、種々の被検体の観察を実施するために、挿入部2の先端に装着される光学アダプターの交換と、内蔵された映像処理プログラムの選択と、映像処理プログラムの追加とを実施することが可能である。被検体は、工業製品である。
The
挿入部2は、被検体の内部に挿入される。挿入部2は、先端20から基端部にわたって屈曲可能な細長い管状である。挿入部2は、被検体を撮像し、かつ撮像信号を制御部3に出力する。挿入部2の先端20には、光学アダプターが装着される。制御部3は、挿入部2を収納する収納部を備えた制御装置である。操作部4は、内視鏡装置1に対するユーザーの操作を受け付ける。表示部5は、表示画面を有し、かつ挿入部2で取得された被検体の画像および操作メニュー等を表示画面に表示する。
The
操作部4は、ユーザーインタフェース(入力装置)である。例えば、操作部4は、ボタン、スイッチ、キー、マウス、ジョイスティック、タッチパッド、トラックボール、およびタッチパネルの少なくとも1つである。表示部5は、LCD(Liquid Crystal Display)等のモニタ(ディスプレイ)である。表示部5は、タッチパネルであってもよい。その場合、操作部4および表示部5は一体化される。ユーザーは、体の一部(例えば、指)または道具を使用することにより表示部5の画面をタッチする。以下では、内視鏡装置1が有する操作部4および表示部5が使用される例を説明する。内視鏡装置1と異なる外部端末が操作部または表示部を有し、その操作部または表示部が使用されてもよい。
The
図2は、内視鏡装置1の内部構成を示す。挿入部2および制御部3の各々の構成が図2に示されている。図2に示す挿入部2は、湾曲部21および撮像素子22を有する。制御部3は、情報受付部30、記憶部31、情報生成部32、および動画編集部33を有する。
Figure 2 shows the internal configuration of the
内視鏡装置1の概略構成を説明する。挿入部2は、被検体に挿入することができる。撮像素子22は、2枚以上のフレームを含む動画を生成する。情報受付部30は、ユーザーによって実施された操作の内容を示す操作情報を受け付ける。情報生成部32は、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さを示す長さ情報を生成する。動画編集部33は、動画を編集する。動画編集部33は、操作情報に基づいて、2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。動画編集部33は、長さ情報に基づいて、第2の区間における単位長さあたりのフレーム数を減らす。動画編集部33は、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。第1のフレーム数は、第1の区間における単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における単位長さあたりのフレーム数を示す。
The schematic configuration of the
内視鏡装置1の詳細な構成を説明する。湾曲部21は、挿入部2を湾曲させるためのワイヤおよび駆動装置等を有する。湾曲部21は、情報受付部30から出力された操作情報に基づいて挿入部2を湾曲させる。その操作情報は、挿入部2を湾曲させる指示(湾曲指示)を示す。
The detailed configuration of the
撮像素子22は、挿入部2の先端20に配置されている。撮像素子22は、CCDセンサまたはCMOSセンサ等のイメージセンサである。撮像素子22は、撮像を実行し、被検体の2枚以上のフレームを連続的に生成する。その2枚以上のフレームの各々は画像である。その2枚以上のフレームは動画を構成する。撮像素子22は、生成された各フレームを制御部3に出力する。また、撮像素子22は、情報受付部30から出力された操作情報に基づいて1枚以上の静止画を生成し、生成された静止画を制御部3に出力する。その操作情報は、静止画を取得する指示(静止画取得指示)を示す。
The
ユーザーは、操作部4を操作することにより、操作情報を内視鏡装置1に入力する。操作部4は、ユーザーによって入力された情報を出力する。情報受付部30は、操作部4から出力された操作情報を受け付ける。操作情報は、動画の記録に関する指示、静止画取得指示、または湾曲指示である。動画の記録に関する指示は、動画の記録を開始するための記録開始指示または動画の記録を終了するための記録終了指示である。操作情報の他の例については、第1の実施形態の第1の変形例において説明する。
The user inputs operation information to the
情報受付部30が動画の記録に関する指示を除く操作情報を受け付けたとき、情報受付部30はその操作情報を動画のフレームに付加する。情報受付部30が静止画取得指示を受け付けたとき、情報受付部30は静止画取得指示を撮像素子22に出力する。静止画取得指示が情報受付部30から出力されたとき、撮像素子22は1枚以上の静止画を生成する。情報受付部30が湾曲指示を受け付けたとき、情報受付部30は湾曲指示を湾曲部21に出力する。湾曲指示が情報受付部30から出力されたとき、湾曲部21は挿入部2を湾曲させる。
When the
記憶部31は、揮発性または不揮発性の記録媒体である。例えば、記憶部31は、RAM(Random Access Memory)、DRAM(DynamicRandom Access Memory)、SRAM(Static Random Access Memory)、ROM(Read Only Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびフラッシュメモリの少なくとも1つである。
The
記憶部31は、撮像素子22によって生成された2枚以上のフレームを含む動画ファイルを記憶する。操作情報がその2枚以上のフレームのうちの1枚以上に付加されている。また、長さ情報がその2枚以上のフレームの各々に付加されている。記憶部31は、撮像素子22によって生成された1枚以上の静止画も記憶する。
The
記憶部31は、内視鏡装置1への装着と内視鏡装置1からの取り外しとが可能な記録媒体であってもよい。したがって、内視鏡装置1が記憶部31を有する必要はない。
The
情報生成部32は、撮像素子22によって生成された2枚以上のフレームを使用する画像処理を実行する。その画像処理は、Visual SLAMまたはstructure from motion(SfM)等である。情報生成部32は、その画像処理において自己位置推定を実行することにより、挿入部2の先端20の位置を推定する。また、情報生成部32は、位置情報を生成する。位置情報は、座標情報および長さ情報を含む。情報生成部32は、位置情報を各フレームに付加する。
The
座標情報は、2枚以上のフレームの各々が生成されたときの挿入部2の先端20の座標(位置)を示す。撮像素子22は、先端20に配置されている。そのため、座標情報は、2枚以上のフレームの各々が生成されたときの撮像素子22の座標(位置)を示す。
The coordinate information indicates the coordinates (position) of the
長さ情報は、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さ(挿入長)を示す。情報生成部32は、座標情報に基づいて挿入長を算出する。
The length information indicates the length (insertion length) of the portion of the
第1の実施形態における挿入長は、先端20の第1の位置と先端20の第2の位置との距離を示す。第1の位置は、基準フレームが生成されたときの先端20の位置を示す。第2の位置は、基準フレームよりも1枚以上後のフレームが生成されたときの先端20の位置を示す。
In the first embodiment, the insertion length indicates the distance between a first position of the
動画編集部33は、動画を処理する。情報受付部30が記録開始指示を受け付けたとき、動画編集部33は動画の記録を開始する。情報受付部30が記録終了指示を受け付けたとき、動画編集部33は動画の記録を終了する。動画の記録が終了した後、動画編集部33は、動画編集処理を実行する。動画編集部33は、動画編集処理において動画ファイルを編集する。
The
情報受付部30、情報生成部32、および動画編集部33は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。例えば、プロセッサは、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、およびGPU(Graphics Processing Unit)の少なくとも1つである。例えば、論理回路は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field-Programmable Gate Array)の少なくとも1つである。情報受付部30、情報生成部32、および動画編集部33は、1つまたは複数のプロセッサを含んでもよい。情報受付部30、情報生成部32、および動画編集部33は、1つまたは複数の論理回路を含んでもよい。
The
内視鏡装置1のコンピュータがプログラムを読み込み、かつ読み込まれたプログラムを実行してもよい。そのプログラムは、情報受付部30、情報生成部32、および動画編集部33の動作を規定する命令を含む。つまり、情報受付部30、情報生成部32、および動画編集部33の機能はソフトウェアにより実現されてもよい。
The computer of the
上記のプログラムは、例えばフラッシュメモリのような「コンピュータ読み取り可能な記録媒体」により提供されてもよい。そのプログラムは、そのプログラムを保持するコンピュータから、伝送媒体を経由して、あるいは伝送媒体中の伝送波により内視鏡装置1に伝送されてもよい。プログラムを伝送する「伝送媒体」は、情報を伝送する機能を有する媒体である。情報を伝送する機能を有する媒体は、インターネット等のネットワーク(通信網)および電話回線等の通信回線(通信線)を含む。上述したプログラムは、前述した機能の一部を実現してもよい。さらに、上述したプログラムは、差分ファイル(差分プログラム)であってもよい。前述した機能は、コンピュータに既に記録されているプログラムと差分プログラムとの組合せによって実現されてもよい。
The above program may be provided by a "computer-readable recording medium" such as a flash memory. The program may be transmitted from a computer that holds the program to the
図3を使用することにより、第1の実施形態における動画記録処理について説明する。図3は、動画記録処理の手順を示す。 The video recording process in the first embodiment will be explained using Figure 3. Figure 3 shows the steps of the video recording process.
撮像素子22は連続的にフレームを生成する。表示部5は、フレームを連続的に表示することにより、被検体のリアルタイム映像を表示する。
The
情報受付部30が記録開始指示を受け付けるまで動画の記録は開始されない。ユーザーが、操作部4を操作することにより記録開始指示を内視鏡装置1に入力したとき、情報受付部30は記録開始指示を受け付ける(ステップS100)。このとき、動画の記録が開始される。
Video recording does not start until the
動画の記録が開始された後、撮像素子22から出力されたフレームは記憶部31に保存される(ステップS101)。
After video recording has started, the frames output from the
ユーザーは、操作部4を操作することにより、操作情報を内視鏡装置1に入力する。その操作情報は、静止画取得指示または湾曲指示である。ステップS101の後、情報受付部30は操作情報を受け付ける(ステップS102)。ステップS101が実行される前にステップS102が実行されてもよい。
The user inputs operation information to the
ステップS102の後、情報受付部30は、操作情報をステップS101において記憶部31に保存されたフレームに付加する。例えば、情報受付部30は操作情報をフレームに埋め込む(ステップS103)。
After step S102, the
操作情報は、記憶部31に保存されたフレームから分離されていてもよい。操作情報とフレームとを互いに関連付ける情報がフレームに付加されてもよい。
The operation information may be separated from the frame stored in the
ユーザーが操作情報を内視鏡装置1に入力しない場合、ステップS102およびステップS103は実行されない。そのため、操作情報が2枚以上のフレームの全てに付加されるとは限らない。
If the user does not input operation information to the
ユーザーが、所望のタイミングで操作部4を操作することにより記録終了指示を内視鏡装置1に入力したとき、情報受付部30は記録終了指示を受け付ける(ステップS104)。情報受付部30が記録終了指示を受け付けるまで、ステップS101からステップS103が繰り返される。
When the user inputs a recording end instruction to the
情報受付部30が記録終了指示を受け付けた後、動画編集部33は、記憶部31に保存されたフレームを含む動画ファイルを生成する(ステップS105)。動画ファイルは記憶部31に保存される。
After the
ステップS105の後、情報生成部32は、動画ファイルに含まれる2枚以上のフレームを使用することにより自己位置推定を実行する。これにより、情報生成部32は、その2枚以上のフレームの各々に対する位置情報を生成する。情報生成部32は、生成された位置情報を各フレームに付加する。例えば、情報生成部32は位置情報をフレームに埋め込む(ステップS106)。
After step S105, the
位置情報は、記憶部31に保存されたフレームから分離されていてもよい。位置情報とフレームとを互いに関連付ける情報がフレームに付加されてもよい。
The location information may be separate from the frame stored in the
ステップS106の後、動画編集部33は動画編集処理を実行する(ステップS107)。動画編集処理が終了したとき、動画記録処理が終了する。
After step S106, the
図4を使用することにより、ステップS107における動画編集処理について説明する。図4は、動画編集処理の手順を示す。 The video editing process in step S107 will be explained using Figure 4. Figure 4 shows the steps of the video editing process.
動画編集部33は、動画のフレームに付加されている操作情報に基づいて、動画の2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する(ステップS107a)。
The
第1の実施形態における所定の操作は、静止画を取得する操作、または挿入部2を湾曲させる操作である。言い換えると、所定の操作は、静止画取得指示を内視鏡装置1に入力する操作、または湾曲指示を内視鏡装置1に入力する操作である。
The predetermined operation in the first embodiment is an operation of acquiring a still image or an operation of bending the
ユーザーが注目する領域が画像に写っているとき、ユーザーは、その領域の静止画を取得するために静止画取得指示を内視鏡装置1に入力する。あるいは、その領域が画像に写っているとき、ユーザーは、その領域を詳細に観察するために湾曲指示を内視鏡装置1に入力する。静止画取得指示または湾曲指示が内視鏡装置1に入力されたとき、ユーザーが注目する領域が画像に写っている可能性が高い。
When an area that the user is interested in is shown in the image, the user inputs a still image acquisition instruction to the
第1の区間および第2の区間の各々は時間区間(期間)である。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。第1の区間は、ユーザーが所定の操作を実施した期間と対応する。第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したタイミング(操作タイミング)と対応するタイミングで生成されたフレームを含む。第1の区間における1枚以上のフレームは、ユーザーが注目する領域が写っている画像と対応する。撮像素子22は各フレーム期間においてフレームを生成する。例えば、第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したフレーム期間に生成されたフレームを含む。
The first interval and the second interval are each a time interval (period). The first interval includes the timing when the user performs a specified operation. The first interval corresponds to the period during which the user performs the specified operation. One or more frames in the first interval include frames generated at a timing corresponding to the timing (operation timing) when the user performs the specified operation. The one or more frames in the first interval correspond to an image showing an area that the user focuses on. The
第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームに加えて、そのフレームの前および後のフレームを含んでもよい。例えば、第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームの前の1枚以上のフレームを含んでもよい。言い換えると、第1の区間における1枚以上のフレームは、第1の挿入長と第2の挿入長との間の挿入長における1枚以上のフレームを含んでもよい。第1の挿入長は、操作タイミングで生成されたフレームにおける挿入長を示す。第2の挿入長は、第1の挿入長よりも所定の長さだけ短い。 The one or more frames in the first section may include the frame generated at the operation timing as well as frames before and after the frame. For example, the one or more frames in the first section may include one or more frames before the frame generated at the operation timing. In other words, the one or more frames in the first section may include one or more frames at an insertion length between a first insertion length and a second insertion length. The first insertion length indicates the insertion length in the frame generated at the operation timing. The second insertion length is shorter than the first insertion length by a predetermined length.
第1の区間における1枚以上のフレームは、操作タイミングで生成されたフレームの後の1枚以上のフレームを含んでもよい。言い換えると、第1の区間における1枚以上のフレームは、第1の挿入長と第3の挿入長との間の挿入長における1枚以上のフレームを含んでもよい。第1の挿入長は、操作タイミングで生成されたフレームにおける挿入長を示す。第3の挿入長は、第1の挿入長よりも所定の長さだけ長い。 The one or more frames in the first section may include one or more frames following the frame generated at the operation timing. In other words, the one or more frames in the first section may include one or more frames at an insertion length between the first insertion length and the third insertion length. The first insertion length indicates the insertion length in the frame generated at the operation timing. The third insertion length is a predetermined length longer than the first insertion length.
ユーザーは、操作部4を操作することにより、被検体の大きさを示す情報を内視鏡装置1に入力してもよい。あるいは、ユーザーは、操作部4を操作することにより、第1の区間の長さを示す情報を内視鏡装置1に入力してもよい。動画編集部33は、内視鏡装置1に入力された情報に基づいて第1の区間の長さを設定してもよい。
The user may input information indicating the size of the subject to the
第2の区間は、ユーザーが所定の操作を実施していない期間と対応する。第2の区間は、ユーザーが所定の操作を実施したタイミングを含まない。第2の区間における1枚以上のフレームは、ユーザーが注目する領域が写っていない画像と対応する。 The second section corresponds to a period during which the user does not perform a specified operation. The second section does not include a time when the user performs a specified operation. One or more frames in the second section correspond to an image that does not include an area that the user focuses on.
例えば、第2の区間は、第1の区間よりも時間的に長い。第2の区間におけるフレームの数は、第1の区間におけるフレームの数よりも多い。 For example, the second interval is longer in time than the first interval. The number of frames in the second interval is greater than the number of frames in the first interval.
動画編集部33は、後述するステップS107bおよびステップS107cにおいて、挿入長の単位長さあたりのフレーム数を調整する。単位長さは、挿入長の単位系(座標系)における所定の長さを示す。長さ情報が各フレームに付加されているため、挿入長が各フレームと関連付けられている。挿入長の値は、挿入長の単位系における各フレームの位置を示す。例えば、挿入長L1がフレームF1と関連付けられ、かつ挿入長L2がフレームF2と関連付けられている。挿入長L1と挿入長L2との差が単位長さと同じである場合、単位長さあたりのフレーム数は、フレームF1からフレームF2までのフレームの数である。
The
ステップS107aの後、動画編集部33は、動画の各フレームに付加されている長さ情報に基づいて、第2の区間におけるフレーム数を調整する。具体的には、動画編集部33は、挿入長の単位長さあたりのフレーム数を減らす(ステップS107b)。
After step S107a, the
第2の区間におけるフレーム数が減るため、第2の区間における動画の再生時間が短くなる。そのため、動画を閲覧するユーザーの負担が減る。 Because the number of frames in the second section is reduced, the playback time of the video in the second section is shortened. This reduces the burden on the user viewing the video.
動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さ(挿入速さ)が一定となるように第2の区間におけるフレーム数を調整してもよい。この場合、動画編集部33は、フレームを間引いてもよいし、またはフレームを追加してもよい。動画編集部33は、第2の区間における動画の再生時の挿入速さが第1の区間における動画の再生時の挿入速さよりも速く、かつ時間の経過とともに変動するように第2の区間におけるフレーム数を調整してもよい。
The
第2の区間の少なくとも一部において挿入長の単位長さあたりのフレーム数が所定の枚数よりも大きい場合、動画編集部33はフレームを間引く。つまり、動画編集部33は第2の区間におけるフレームの一部を削除する。例えば、第2の区間における連続する2枚以上のフレーム間の被写体の移動量が小さい場合、動画編集部33はその2枚以上のフレームの一部を削除する。
If the number of frames per unit length of the insertion length is greater than a predetermined number in at least a portion of the second section, the
第2の区間の一部において挿入長の単位長さあたりのフレーム数が所定の枚数よりも小さい場合、動画編集部33はフレームを追加する。動画編集部33は、第2の区間における1枚以上のフレームを複製し、かつその1枚以上のフレームを第2の区間に追加してもよい。動画編集部33は、第2の区間における2枚以上のフレームに基づいて第2の区間にフレームを補間してもよい。フレームが第2の区間の一部に追加される場合であっても、第2の区間の全体におけるフレームの数は減る。
If the number of frames per unit length of the insertion length in a portion of the second section is smaller than a predetermined number, the
第2の区間における動画が再生されたとき、画像に写っている被写体は一定の速さで移動する。そのため、動画を閲覧するユーザーの負担が減る。 When the video in the second section is played, the subject in the image moves at a constant speed. This reduces the burden on the user viewing the video.
ステップS107bの後、動画編集部33は、第1のフレーム数がステップS107bで調整された第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する(ステップS107c)。第1のフレーム数は、第1の区間における挿入長の単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における挿入長の単位長さあたりのフレーム数を示す。ステップS107cが実行されたとき、動画編集処理が終了する。
After step S107b, the
例えば、動画編集部33は、第1の区間におけるフレームの一部を削除することにより、第1の区間におけるフレーム数を減らす。あるいは、動画編集部33は、フレームを第1の区間に追加することにより、第1の区間におけるフレーム数を増加させる。
For example, the
動画編集部33は、第1の区間の少なくとも一部において挿入部2が静止するように第1の区間におけるフレーム数を調整してもよい。動画編集部33は、第1の区間における動画において、挿入部2が徐々に遅くなり、挿入部2が静止するように第1の区間におけるフレーム数を調整してもよい。さらに、動画編集部33は、第1の区間における動画において、挿入部2が静止した後に挿入部2が徐々に速くなるように第1の区間におけるフレーム数を調整してもよい。
The
第1のフレーム数が第2のフレーム数よりも大きいため、第1の被写体は第2の被写体よりも遅い。第1の被写体は、第1の区間におけるフレームに写っている。第2の被写体は、第2の区間におけるフレームに写っている。そのため、第1の区間における動画がスローモーションで再生される。動画の閲覧者は、検査者が注目した重要な箇所を容易に確認することができる。 Because the first number of frames is greater than the second number of frames, the first subject is slower than the second subject. The first subject is captured in frames in the first section. The second subject is captured in frames in the second section. Therefore, the video in the first section is played in slow motion. A viewer of the video can easily check the important points that the inspector focused on.
ステップS107bおよびステップS107cの順番は、図4に示す順番に限らない。ステップS107bが実行される前にステップS107cが実行されてもよい。その場合、ステップS107bにおける最終的な第2のフレーム数が予め算出され、かつその第2のフレーム数がステップS107cにおいて使用される。 The order of steps S107b and S107c is not limited to the order shown in FIG. 4. Step S107c may be executed before step S107b is executed. In that case, the final second number of frames in step S107b is calculated in advance, and the second number of frames is used in step S107c.
図5は、動画編集処理が実行される前の動画を模式的に示す。図6は、動画編集処理が実行された後の動画を模式的に示す。 Figure 5 shows a schematic diagram of a video before the video editing process is performed. Figure 6 shows a schematic diagram of a video after the video editing process is performed.
挿入部2は、図5および図6における右方向に挿入される。図5および図6に示す線L11は、被検体IT11に挿入された先端20の移動の軌跡を示す。線L11上の複数のマークは、撮像素子22がフレームを生成したときの先端20の位置を示す。
The
図5および図6における位置P11は、ユーザーが所定の操作を実施したときの先端20の位置を示す。このとき、撮像素子22はフレームを生成する。図5および図6において第1の区間SE11および第2の区間SE12が示されている。第1の区間SE11における動画は、先端20が位置P11にあるときに取得されたフレームを含む。また、第1の区間SE11における動画は、先端20が位置P11の近傍にあるときに取得された2枚以上のフレームを含む。第2の区間SE12における動画は、先端20が位置P11からある程度離れた位置にあるときに取得された2枚以上のフレームを含む。
Position P11 in Figures 5 and 6 indicates the position of
図5および図6に示す例では、動画編集部33は、第1の区間SE11および第2の区間SE12の各々におけるフレーム数を減らす。動画編集部33は、挿入部2が被検体に挿入される速さが一定となるように第2の区間SE12におけるフレーム数を調整する。動画編集部33は、第1の区間SE11における第1のフレーム数が第2の区間SE12における第2のフレーム数よりも大きくなるように第1の区間SE11におけるフレーム数を調整する。第1のフレーム数および第2のフレーム数は、挿入長の単位長さあたりのフレーム数を示す。
In the examples shown in Figures 5 and 6, the
本発明の各態様の内視鏡装置の作動方法は、情報受付ステップ、情報生成ステップ、および動画編集ステップを有する。情報受付部30は、情報受付ステップ(ステップS102)において、ユーザーによって実施された操作の内容を示す操作情報を受け付ける。情報生成部32は、情報生成ステップ(ステップS106)において、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の部分の長さを示す長さ情報を生成する。動画編集部33は、動画編集ステップ(ステップS107)において、動画を編集する。動画編集ステップは、分類ステップ、第2の区間編集ステップ、および第1の区間編集ステップを有する。動画編集部33は、分類ステップ(ステップS107a)において、操作情報に基づいて、2枚以上のフレームを第1の区間における1枚以上のフレームと、第1の区間と異なる第2の区間における1枚以上のフレームとに分類する。第1の区間は、ユーザーが所定の操作を実施したタイミングを含む。動画編集部33は、第2の区間編集ステップ(ステップS107b)において、長さ情報に基づいて、第2の区間における単位長さあたりのフレーム数を減らす。動画編集部33は、第1の区間編集ステップ(ステップS107c)において、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。第1のフレーム数は、第1の区間における単位長さあたりのフレーム数を示す。第2のフレーム数は、第2の区間における単位長さあたりのフレーム数を示す。
The operation method of the endoscope device of each aspect of the present invention has an information receiving step, an information generating step, and a video editing step. In the information receiving step (step S102), the
本発明の各態様は、次の変形例を含んでもよい。動画編集部33は、第2の区間における動画が再生されている状態における挿入部2が被検体に挿入される見かけの速さが一定となるように第2の区間におけるフレーム数を調整する。
Each aspect of the present invention may include the following modified example: The
本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームを使用することにより、2枚以上のフレームの各々が生成されたタイミングにおける撮像素子22の位置を推定し、推定された位置に基づいて挿入長を推定する。
Each aspect of the present invention may include the following modified examples: The
本発明の各態様は、次の変形例を含んでもよい。第1の区間における1枚以上のフレームは、ユーザーが所定の操作を実施したタイミングにおいて生成された1枚のフレームと、そのタイミングよりも前に生成された1枚以上のフレームと、そのタイミングよりも後に生成された1枚以上のフレームとを含む。 Each aspect of the present invention may include the following modified examples: The one or more frames in the first section include one frame generated at the timing when the user performs a predetermined operation, one or more frames generated before that timing, and one or more frames generated after that timing.
第1の実施形態において動画編集部33は、第2の区間における挿入長の単位長さあたりのフレーム数を減らす。また、動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さが一定となるように第2の区間におけるフレーム数を調整する。そのため、内視鏡装置1は、動画再生時のユーザーの負担を低減させることができる。第1の実施形態において動画編集部33は、第1のフレーム数が第2のフレーム数よりも大きくなるように第1の区間におけるフレーム数を調整する。そのため、内視鏡装置1は、動画再生時にユーザーに重要な箇所を容易に確認させることができる。
In the first embodiment, the
動画の閲覧者は、検査が予め定められた手順で実施されているか否かを確認する。閲覧者は、複雑な構造を持つ被検体において予め定められた箇所が検査されたか否かを確認する。第1の実施形態における編集が実施されていない動画では、挿入部2が被検体に挿入される速さが様々である。例えば、検査者がマニュアルまたは図面を確認するために作業が実施されない場合がある。その場合、挿入部2は静止している。
The viewer of the video checks whether the examination is being performed according to a predetermined procedure. The viewer checks whether predetermined locations on a subject having a complex structure have been examined. In the video that has not been edited in the first embodiment, the speed at which the
第1の実施形態における編集が実施されずに一定の速さで早送り再生が実行された場合、挿入作業が実施されていない期間における動画は見やすくなる。一方、スムーズな挿入作業が実施されている期間における動画が再生されたとき、挿入部2が速く挿入される。そのため、予め定められた箇所が検査されたか否かを閲覧者が確認することが難しい。内視鏡装置1は、被検体に挿入される挿入部2の実際の速さによらず、第2の区間における動画再生時において挿入部2が被検体に挿入される速さを一定にする。そのため、動画の閲覧者は、検査が所定の手順に従って実施されているか否かを容易に判断することができる。
When fast-forward playback is performed at a constant speed without editing in the first embodiment, the video is easy to view during periods when insertion is not being performed. On the other hand, when a video is played during a period when smooth insertion is being performed, the
第1の区間におけるフレームには、ユーザーが注目する領域が写っている可能性が高い。第1の区間における動画は、スローモーションで再生される。そのため、動画の閲覧者は、検査者が注目した重要な箇所を容易に確認することができる。一方、第2の区間におけるフレームには、ユーザーが注目する領域が写っている可能性が低い。第2の区間における動画は、挿入部2の速さが実際の速さよりも高くなるように再生される。そのため、動画の閲覧者は、動画を短時間で閲覧することができる。
The frames in the first section are likely to show the area that the user focuses on. The video in the first section is played in slow motion. This allows the viewer of the video to easily check the important points that the examiner focused on. On the other hand, the frames in the second section are unlikely to show the area that the user focuses on. The video in the second section is played so that the speed of the
大量の動画が長期間、検査のエビデンスとして保管される場合がある。その場合、動画ファイルのデータ量を減らすことが望ましい。例えば、ユーザーが動画記録中に検査を一時的に中断した場合、挿入部2の位置の変化が少ない期間が存在する。その期間におけるフレーム数が減るため、不要なデータの量が減る。内視鏡装置1は、重要なデータを残し、かつ動画ファイルのデータ量を減らすことができる。
There are cases where a large amount of video is stored for a long period of time as evidence of an examination. In such cases, it is desirable to reduce the amount of data in the video file. For example, if a user temporarily pauses an examination while recording a video, there will be a period during which there is little change in the position of the
(第1の実施形態の第1の変形例)
本発明の第1の実施形態の第1の変形例を説明する。図2に示す内視鏡装置1は、図7に示す内視鏡装置1aに変更される。図7は、内視鏡装置1aの構成を示す。図2に示す制御部3は、図7に示す制御部3aに変更される。図2に示す構成と同じ構成の説明を省略する。
(First Modification of the First Embodiment)
A first modified example of the first embodiment of the present invention will be described. The
制御部3aは、情報受付部30、記憶部31、情報生成部32、動画編集部33、および処理部34を有する。情報受付部30、情報生成部32、動画編集部33、および処理部34は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。情報受付部30、情報生成部32、動画編集部33、および処理部34は、1つまたは複数のプロセッサを含んでもよい。情報受付部30、情報生成部32、動画編集部33、および処理部34は、1つまたは複数の論理回路を含んでもよい。
The
第1の実施形態の第1の変形例における操作情報は、第1の実施形態における静止画取得指示および湾曲指示に加えて、以下の指示を含む。操作情報は、静止画を保存する指示(静止画保存指示)、計測を実行する指示(計測実行指示)、画像処理の設定を変更する指示(設定変更指示)、ラベルを動画に添付する指示(ラベル添付指示)、および情報を静止画に添付する指示(情報添付指示)を含む。処理部34は、操作情報に応じた処理を実行する。
The operation information in the first modified example of the first embodiment includes the following instructions in addition to the still image acquisition instruction and curvature instruction in the first embodiment. The operation information includes an instruction to save a still image (still image save instruction), an instruction to perform measurement (measurement execution instruction), an instruction to change the settings of image processing (setting change instruction), an instruction to attach a label to a moving image (label attachment instruction), and an instruction to attach information to a still image (information attachment instruction). The
ユーザーは、静止画取得指示を内視鏡装置1aに入力した後、静止画保存指示を内視鏡装置1aに入力する。情報受付部30が静止画保存指示を受け付けたとき、情報受付部30は静止画保存指示を処理部34に出力する。静止画保存指示が情報受付部30から出力されたとき、処理部34は、撮像素子22によって生成された1枚以上の静止画を記憶部31に保存する。1つの指示が静止画取得指示および静止画保存指示の両方を示してもよい。
The user inputs a still image acquisition instruction to the
静止画が記憶部31に保存された後、ユーザーは、計測実行指示を内視鏡装置1aに入力する。情報受付部30が計測実行指示を受け付けたとき、情報受付部30は計測実行指示を処理部34に出力する。計測実行指示が情報受付部30から出力されたとき、処理部34は、記憶部31に保存された静止画を使用することにより計測を実行する。処理部34は、静止画に写っている被写体のサイズおよび深さを計測する。
After the still image is stored in the
ユーザーは、動画記録中の任意のタイミングでラベル添付指示を内視鏡装置1aに入力する。例えば、ラベルは、画像に写っている被写体の種類を示す。その種類は、「表面傷」、「欠け」、および「穴」などである。情報受付部30がラベル添付指示を受け付けたとき、情報受付部30はラベル添付指示を処理部34に出力する。ラベル添付指示が情報受付部30から出力されたとき、処理部34は、ラベルを動画のフレームに付加する。ユーザーがラベルを指定したとき、そのラベルが添付されたフレームから動画の再生が開始される。
The user inputs a label attachment instruction to the
挿入部2が検査箇所に近づいたとき、ユーザーは、湾曲指示を内視鏡装置1aに入力することにより、湾曲部21に挿入部2を湾曲させる。これにより、ユーザーは、撮影の構図を調整する。その後、ユーザーは、見やすい画像を取得するために設定変更指示を内視鏡装置1aに入力する。設定変更指示は、ズーム(画角)の設定または明るさの設定を変更する指示を示す。情報受付部30が設定変更指示を受け付けたとき、情報受付部30は設定変更指示を撮像素子22に出力する。撮像素子22は、ズームまたは明るさの設定を変更する。
When the
ユーザーが情報添付指示を内視鏡装置1aに入力した場合、任意の情報が静止画に添付される。例えば、その情報は、「検査箇所1の傷1」のような内容を示す。予め内視鏡装置1aに登録されたラベルがメモとして静止画に添付されてもよい。そのラベルは、「表面傷」、「欠け」、または「穴」などである。情報受付部30が情報添付指示を受け付けたとき、情報受付部30は情報添付指示を処理部34に出力する。情報添付指示が情報受付部30から出力されたとき、処理部34は、記憶部31に保存された静止画に情報を添付する。
When a user inputs an instruction to attach information into the
静止画に添付される情報は、被検体に写っている領域の評価結果であってもよい。評価結果は、静止画に写っている傷のサイズおよび深さと対応する。例えば、評価結果は、傷ランク1または傷ランク2などを示す。傷のサイズおよび深さは、計測機能を使用することにより計測される。傷の深さは、挿入部2の先端20からその傷までの距離を示す。処理部34は、評価結果を自動で生成してもよい。例えば、傷のサイズが5mm以上である場合、処理部34は、傷ランク1と対応する評価情報を生成してもよい。ユーザーが、自動的に計測された傷のサイズまたは深さに基づいて傷ランクを指定してもよい。処理部34は、ユーザーによって指定された傷ランクと対応する評価情報を生成してもよい。
The information attached to the still image may be an evaluation result of the area shown on the subject. The evaluation result corresponds to the size and depth of the wound shown in the still image. For example, the evaluation result indicates wound
重要度が操作情報に与えられている。図8は、操作情報に与えられた重要度を示す。重要度は数字で示されている。重要度を示す数字が大きいほど、その重要度は高い。 Importance is assigned to the operation information. Figure 8 shows the importance assigned to the operation information. The importance is indicated by a number. The higher the number indicating the importance, the higher the importance.
ユーザーは、所定の順番で検査を実施する。一般的に、ユーザーは、ラベル添付指示、湾曲指示、設定変更指示、静止画取得指示、静止画保存指示、メモを静止画に添付するための情報添付指示、計測指示、および評価結果を静止画に添付するための情報添付指示をこの順に内視鏡装置1aに入力する。検査の手順は、これらの指示に関する操作を含む。その手順においてより後の操作が実施されたとき、ユーザーが画像内の領域に注目する度合いはより高い。
The user performs the examination in a predetermined order. Typically, the user inputs the following instructions to the
動画編集部33は、操作情報毎に第1の区間を設定する。2つ以上の操作情報が使用されるため、2つ以上の第1の区間が設定される。動画編集部33は、図4に示すステップS107cを第1の区間毎に実行する。このとき、動画編集部33は、各第1の区間におけるフレーム数が操作情報の重要度に応じた数となるようにフレーム数を調整する。
The
重要度が高いほど、調整された後のフレーム数は多い。第1のタイミングを含む第1の区間における動画の再生速度は、第2のタイミングを含む第1の区間における動画の再生速度よりも遅い。第1のタイミングは、第1の操作が実施されたタイミングを示す。第2のタイミングは、第1の操作の重要度よりも低い重要度を持つ第2の操作が実施されたタイミングを示す。 The higher the importance, the greater the number of frames after adjustment. The playback speed of the video in the first section including the first timing is slower than the playback speed of the video in the first section including the second timing. The first timing indicates the timing when a first operation is performed. The second timing indicates the timing when a second operation, which has a lower importance than the first operation, is performed.
動画編集部33は、上記の操作情報の全てを使用する必要はない。動画編集部33は、前述した2種類以上の操作情報のうちの1つのみを使用してもよい。動画編集部33は、前述した2種類以上の操作情報のうちの2つ以上を使用してもよい。
The
本発明の各態様は、次の変形例を含んでもよい。操作情報は、静止画を取得する指示、静止画を保存する指示、計測を実行する指示、挿入部2を湾曲させる指示、画像処理の設定を変更する指示、ラベルを動画に添付する指示、および情報を静止画に添付する指示の少なくとも1つを含む。静止画に添付される情報は、メモおよび傷の評価結果を含む。
Each aspect of the present invention may include the following modified examples. The operation information includes at least one of an instruction to obtain a still image, an instruction to save the still image, an instruction to perform a measurement, an instruction to bend the
第1の実施形態の第1の変形例において、動画編集部33は、操作情報の種類に応じて第1の区間におけるフレーム数を調整する。そのため、内視鏡装置1aは、動画再生時にユーザーに重要な箇所を容易に確認させることができる。
In the first modification of the first embodiment, the
(第1の実施形態の第2の変形例)
図2に示す内視鏡装置1を使用することにより、本発明の第1の実施形態の第2の変形例を説明する。
(Second Modification of the First Embodiment)
A second modification of the first embodiment of the present invention will be described by using the
動画編集部33は、第2の区間を2つ以上の部分区間に分割する。あるいは、動画編集部33は、第2の区間の全体に1つの部分区間を設定する。動画編集部33は、挿入長の単位長さあたりのフレーム数に基づいて各部分区間におけるフレーム数を調整する。部分区間における挿入長の単位長さあたりのフレーム数が所定値よりも大きい場合、動画編集部33は、その部分区間における少なくとも1枚のフレームを間引く。部分区間における挿入長の単位長さあたりのフレーム数が所定値以下である場合、動画編集部33は、その部分区間に少なくとも1枚のフレームを追加する。
The
例えば、所定値は、記憶部31に予め記憶されている。動画編集処理が実行されるとき、ユーザーが操作部4を操作することにより所定値を内視鏡装置1に入力してもよい。
For example, the predetermined value is stored in advance in the
図9を使用することにより、第1の実施形態の第2の変形例における動画編集処理について説明する。図9は、動画編集処理の手順を示す。図9に示す動画編集処理は、図3に示すステップS107において実行される。図4に示す処理と同じ処理の説明を省略する。 The video editing process in the second modified example of the first embodiment will be described using FIG. 9. FIG. 9 shows the procedure of the video editing process. The video editing process shown in FIG. 9 is executed in step S107 shown in FIG. 3. The description of the same process as that shown in FIG. 4 will be omitted.
ステップS107aの後、動画編集部33は、第2の区間における1つの部分区間を選択する(ステップS107d)。
After step S107a, the
ステップS107dの後、動画編集部33は、ステップS107dにおいて選択された部分区間における挿入長の単位長さあたりのフレーム数が所定値よりも大きいか否かを判断する(ステップS107e)。
After step S107d, the
挿入長の単位長さあたりのフレーム数が所定値よりも大きいと動画編集部33がステップS107eにおいて判断した場合、動画編集部33は、ステップS107dにおいて選択された部分区間におけるフレームを間引く(ステップS107f)。
If the
挿入長の単位長さあたりのフレーム数が所定値以下であると動画編集部33がステップS107eにおいて判断した場合、動画編集部33は、ステップS107dにおいて選択された部分区間にフレームを追加する(ステップS107g)。このとき、動画編集部33は、その部分区間における1枚以上のフレームを複製し、かつその1枚以上のフレームをその部分区間に追加してもよい。動画編集部33は、その部分区間における2枚以上のフレームに基づいてその部分区間にフレームを補間してもよい。フレームが部分区間に追加される場合であっても、第2の区間の全体におけるフレームの数は減る。
If the
ステップS107fまたはステップS107gの後、動画編集部33は、全ての部分区間における処理が終了したか否かを判断する(ステップS107h)。1つ以上の部分区間においてステップS107fおよびステップS107gのいずれも実行されていない場合、ステップS107dが実行される。全ての部分区間においてステップS107fまたはステップS107gが実行された場合、ステップS107cが実行される。
After step S107f or step S107g, the
動画編集部33が第2の区間の1つ以上の部分区間にフレームを追加する場合、動画編集部33は第2の区間の他の1つ以上の部分区間におけるフレームを間引く。フレーム数の調整を通して第2の区間の全体におけるフレームの数を減らすために、追加されるフレームの数は、間引かれるフレームの数よりも小さい。
When the
動画編集部33は、第2の区間の全体におけるフレームの数が第2の区間におけるフレーム数の調整を通して減ったか否かを判断してもよい。第2の区間の全体におけるフレームの数が増えた場合、動画編集部33は、ステップS107eに使用される所定値を小さくし、かつ第2の区間におけるフレーム数の調整を繰り返してもよい。
The
第1の実施形態の第2の変形例において、図7に示す内視鏡装置1aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。
In the second modified example of the first embodiment, the
本発明の各態様は、次の変形例を含んでもよい。第2の区間は、1つ以上の部分区間を含む。1つ以上の部分区間の少なくとも1つにおける挿入長の単位長さあたりのフレーム数が所定値よりも大きい場合、動画編集部33は、1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く。
Each aspect of the present invention may include the following variations. The second section includes one or more subsections. If the number of frames per unit length of the insertion length in at least one of the one or more subsections is greater than a predetermined value, the
本発明の各態様は、次の変形例を含んでもよい。第2の区間は、2つ以上の部分区間を含む。2つ以上の部分区間の少なくとも1つにおける挿入長の単位長さあたりのフレーム数が所定値以下である場合、動画編集部33は、2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する。
Each aspect of the present invention may include the following variations. The second section includes two or more subsections. If the number of frames per unit length of the insertion length in at least one of the two or more subsections is equal to or less than a predetermined value, the
第1の実施形態の第2の変形例において、動画編集部33は、第2の区間の部分区間におけるフレーム数を調整する。これにより、動画編集部33は、動画再生時に挿入部2が被検体に挿入される速さを一定にすることができる。
In the second modified example of the first embodiment, the
(第1の実施形態の第3の変形例)
図2に示す内視鏡装置1を使用することにより、本発明の第1の実施形態の第3の変形例を説明する。
(Third Modification of the First Embodiment)
A third modification of the first embodiment of the present invention will be described by using the
検査においてユーザーが挿入部2を被検体に挿入することに失敗する場合がある。その場合、ユーザーは挿入部2を少し引き、かつ挿入部2を再度進行させる。あるいは、ユーザーが挿入部2を被検体から引き抜き、かつ挿入部2を被検体に再度挿入する。そのため、挿入部2が被検体内の同じ箇所を2回以上通る場合がある。動画の閲覧者は、同じ箇所を何回も閲覧する必要はない。第1の実施形態の第3の変形例において、内視鏡装置1は複数回の撮影を通して生成されたフレームを減らす。
During an examination, the user may fail to insert the
被検体が、分岐している構造を有する場合がある。そのため、先端20が被検体内の第1の箇所にあるときの挿入長と、先端20が被検体内の第2の箇所にあるときの挿入長とが同じ場合がある。第1の箇所が第1のフレームに写り、第2の箇所が第2のフレームに写る。第1のフレームから算出された挿入長は、第2のフレームから算出された挿入長と同じである。動画編集部33が挿入長に基づいて第1のフレームと第2のフレームとを区別することは難しい。
The subject may have a branched structure. Therefore, the insertion length when the
動画編集部33は、動画の各フレームに付加されている座標情報に基づいて、先端20の位置を判断する。上記の第1の箇所の座標情報は、上記の第2の箇所の座標情報と異なる。そのため、動画編集部33は、第1のフレームと第2のフレームとを区別することができる。動画編集部33は、先端20の位置の変化の軌跡が最短となるように、動画に含まれる2枚以上のフレームの一部を削除する。
The
図10を使用することにより、第1の実施形態の第3の変形例における動画編集処理について説明する。図10は、動画編集処理の手順を示す。図10に示す動画編集処理は、図3に示すステップS107において実行される。図4に示す処理と同じ処理の説明を省略する。 The video editing process in the third modified example of the first embodiment will be described using FIG. 10. FIG. 10 shows the procedure of the video editing process. The video editing process shown in FIG. 10 is executed in step S107 shown in FIG. 3. The description of the same process as that shown in FIG. 4 will be omitted.
動画編集部33は、先端20の位置の変化の軌跡が最短となるようにフレームを削除する(ステップS107i)。ステップS107iの後、ステップS107aが実行される。
The
ステップS107iおよびステップS107aの順番は、図10に示す順番に限らない。ステップS107iが実行される前にステップS107aが実行されてもよい。 The order of steps S107i and S107a is not limited to the order shown in FIG. 10. Step S107a may be executed before step S107i is executed.
図11および図12は、ステップS107iにおける処理の内容を示す。挿入部2は、図11および図12における右方向に挿入される。図11における線L21は、ステップS107iが実行される前の動画における先端20の移動の軌跡を示す。図12における線L22は、ステップS107iが実行された後の動画における先端20の移動の軌跡を示す。線L21または線L22が示す軌跡は、撮像素子22の位置の変化の軌跡と同等である。線L21および線L22上の複数のマークは、撮像素子22がフレームを生成したときの先端20の位置を示す。
Figures 11 and 12 show the processing in step S107i.
図11における線L23が示す領域において、挿入部2が被検体内の同じ箇所を2回通る。動画編集部33は、位置P21から位置P22までの先端20の位置の変化の軌跡が最短となるようにフレームを削除する。このとき、動画編集部33は、線L23が示す領域において生成されたフレームを削除する。ステップS107iが実行された後、動画は、線L23が示す領域において生成されたフレームを含まない。
In the region indicated by line L23 in FIG. 11, the
動画における2枚以上のフレームは、フレームが生成された順に互いに接続されている。フレームが削除される前、位置P23において生成されたフレームと、位置P24において生成されたフレームとが互いに接続されている。また、位置P25において生成されたフレームと、位置P26において生成されたフレームとが互いに接続されている。 Two or more frames in a video are connected to each other in the order in which they were generated. Before frames are deleted, the frame generated at position P23 and the frame generated at position P24 are connected to each other. In addition, the frame generated at position P25 and the frame generated at position P26 are connected to each other.
動画編集部33は、フレーム間の接続を変更する。フレームが削除された後、動画編集部33は、位置P23において生成されたフレームと、位置P26において生成されたフレームとを互いに接続する。
The
動画編集部33は、ステップS107iにおいて、各フレームが生成された時刻を考慮する必要はない。動画編集部33は、各フレームに付加されている座標情報のみに基づいて、先端20の位置を判断する。動画編集部33は、先端20の位置に基づいて、削除されるフレームを選択する。動画編集部33は、選択されたフレームを削除する。
In step S107i, the
動画編集部33は、動画に含まれる3枚以上のフレームのうち1枚以上を削除してもよい。削除された1枚以上のフレームを除く2枚以上のフレームに関する撮像素子22の位置の変化の軌跡は最短となる。動画編集部33は、削除された1枚以上のフレームを除く2枚以上のフレーム間の接続を変更してもよい。
The
フレーム間の接続を変更することにより、フレームの再生順が変更される場合がある。例えば、第3のフレームが生成され、その後、第4のフレームが生成される。フレーム間の接続が変更されない場合、第3のフレームが再生され、その後、第4のフレームが再生される。フレーム間の接続が変更される場合、第4のフレームが再生され、その後、第3のフレームが再生される可能性がある。 By changing the connections between frames, the order in which frames are played may change. For example, a third frame is generated, then a fourth frame is generated. If the connections between frames are not changed, the third frame is played, then the fourth frame is played. If the connections between frames are changed, the fourth frame may be played, then the third frame.
ユーザーが動画記録中に照明の光量を上げる、または画像処理の設定を変更する場合がある。画像処理の設定は、ズーム(画角)の設定または明るさの設定である。動画編集部33がフレーム間の接続を変更すると、互いに接続された2枚のフレーム間で画像の明るさが大きく異なる場合がある。あるいは、互いに接続された2枚のフレーム間で画像の画角が大きく異なる場合がある。そのため、動画が見にくくなる可能性がある。
The user may increase the amount of light or change the image processing settings while recording a video. The image processing settings are zoom (angle of view) settings or brightness settings. When the
動画編集部33は、画像の明るさまたは画角の変化を抑制するために以下の処理を実行してもよい。例えば、動画編集部33は、フレームの輝度値に基づいて、互いに接続される2枚のフレームを選択する。あるいは、動画編集部33は、画像処理の設定値に基づいて、互いに接続される2枚のフレームを選択する。
The
第1の実施形態の第3の変形例において、図7に示す内視鏡装置1aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。
In the third modified example of the first embodiment, the
動画編集部33は、ステップS107bの代わりに図9に示すステップS107dからステップS107hを実行してもよい。
The
本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームを使用することにより、その2枚以上のフレームの各々が生成されたタイミングにおける撮像素子22の位置を推定する。動画編集部33は、撮像素子22の位置の変化の軌跡が最短となるようにその2枚以上のフレームの一部を削除する。
Each aspect of the present invention may include the following modified examples. The
第1の実施形態の第3の変形例における動画は、3枚以上のフレームを含んでもよい。その3枚以上のフレームは、第1の区間における1枚以上のフレームと、第2の区間における2枚以上のフレームとを含んでもよい。動画編集部33は、第2の区間における撮像素子22の位置の変化の軌跡が最短となるように第2の区間における2枚以上のフレームの一部を削除してもよい。
The video in the third modified example of the first embodiment may include three or more frames. The three or more frames may include one or more frames in the first section and two or more frames in the second section. The
第1の実施形態の第3の変形例において、動画編集部33は、同一の箇所が写っている2枚以上のフレームの一部を削除する。そのため、内視鏡装置1は、動画再生時のユーザーの負担を低減させることができる。
In the third modified example of the first embodiment, the
(第2の実施形態)
本発明の第2の実施形態を説明する。図2に示す内視鏡装置1は、図13に示す内視鏡装置1bに変更される。図13は、内視鏡装置1bの構成を示す。図2に示す挿入部2は、図13に示す挿入部2bに変更される。図2に示す構成と同じ構成の説明を省略する。
Second Embodiment
A second embodiment of the present invention will be described. The
挿入部2は、湾曲部21、撮像素子22、およびセンサ23を有する。センサ23は、挿入部2の先端20に配置されている。例えば、センサ23は、加速度センサまたはジャイロセンサ(角速度センサ)である。加速度センサは、先端20の加速度を検出する。センサ23は、1軸の加速度センサであってもよい。1軸の加速度センサは、挿入部2の長手方向の加速度を検出する。ジャイロセンサは、先端20の角速度を検出する。センサ23は、加速度センサおよびジャイロセンサの組み合わせであってもよい。センサ23は、3軸の加速度および3軸の角速度を検出する6軸慣性センサであってもよい。
The
センサ23は、物理量を計測し、その物理量を示すセンサ情報を出力する。その物理量は、加速度または角速度である。センサ情報は、先端20の加速度または先端20の角速度を示す。
The
情報受付部30が動画の記録に関する指示を除く操作情報を受け付けたとき、情報受付部30はその操作情報を動画のフレームに付加する。また、情報受付部30は、センサ23から出力されたセンサ情報をフレームに付加する。
When the
情報生成部32が、加速度を示すセンサ情報を使用する例を説明する。情報生成部32は、第1の実施形態における方法を使用することにより挿入長(第1の仮挿入長)を算出する。このとき、情報生成部32は、画像から特徴点を検出し、その特徴点の情報を使用する。また、情報生成部32は、センサ情報を使用することにより挿入長(第2の仮挿入長)を算出する。具体的には、情報生成部32は、加速度に基づいて先端20の位置の変化量を算出する。情報生成部32は、その変化量に基づいて第2の仮挿入長を算出する。
An example will be described in which the
情報生成部32は、第1の仮挿入長および第2の仮挿入長に基づいて最終的な挿入長を算出する。例えば、情報生成部32は、第1の仮挿入長および第2の仮挿入長の加重平均を算出し、算出された加重平均を最終的な挿入長として使用する。情報生成部32は、特徴点の数に応じて加重平均の重みを設定する。特徴点の数が十分多い場合、情報生成部32は、第1の仮挿入長の重みを第2の仮挿入長の重みよりも大きくする。特徴点の数が少ない場合、情報生成部32は、第2の仮挿入長の重みを第1の仮挿入長の重みよりも大きくする。
The
情報生成部32は、上記の処理を実行することにより、2枚以上のフレームの各々が生成されたタイミングにおける挿入長を推定する。情報生成部32は、算出された挿入長を含む位置情報を各フレームに付加する。
By performing the above process, the
図14から図17を使用することにより、情報生成部32が、角速度を示すセンサ情報を使用する例を説明する。図14は、挿入部2が被検体IT12に挿入されているときの状態ST11、状態ST12、および状態ST13を示す。挿入部2は、図14に示す方向DR11に挿入され、かつ図14に示す方向DR12に引き抜かれる。
Using Figures 14 to 17, an example in which the
図15は、状態ST11において撮像素子22によって生成されたフレームF11、フレームF12、およびフレームF13を示す。図16は、状態ST12において撮像素子22によって生成されたフレームF14、フレームF15、およびフレームF16を示す。図17は、状態ST13において撮像素子22によって生成されたフレームF17、フレームF18、およびフレームF19を示す。図14から図17における領域RG11および領域RG12は、被検体IT12の領域を模式的に示す。
Figure 15 shows frames F11, F12, and F13 generated by the
状態ST11において、挿入部2は湾曲していない。被検体IT12の奥側の領域RG11および領域RG12がフレームF11、フレームF12、およびフレームF13に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF11を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF12を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF13を生成する。
In state ST11, the
状態ST12において、挿入部2は湾曲している。被検体IT12の内側の表面上の領域RG11および領域RG12がフレームF14、フレームF15、およびフレームF16に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF14を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF15を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF16を生成する。
In state ST12, the
状態ST13において、挿入部2は湾曲している。被検体IT12の内側の表面上の領域RG11および領域RG12がフレームF17、フレームF18、およびフレームF19に映る。挿入部2の先端20が図14に示す位置にあるとき、撮像素子22はフレームF17を生成する。先端20が、図14に示す位置から方向DR11に移動した後、撮像素子22はフレームF18を生成する。先端20が、図14に示す位置から方向DR12に移動した後、撮像素子22はフレームF19を生成する。
In state ST13, the
挿入長が変化した場合、撮像素子22によって生成されたフレームは、先端20の方向に応じて変化する。例えば、状態ST11において先端20が方向DR11に移動する場合、フレームF11およびフレームF12に示すように、領域RG11は左方向に移動し、かつ領域RG12は右方向に移動する。状態ST12において先端20が方向DR11に移動する場合、フレームF14およびフレームF15に示すように、領域RG11および領域RG12は右方向に移動する。一方、状態ST13において先端20が方向DR11に移動する場合、フレームF17およびフレームF18に示すように、領域RG11および領域RG12は左方向に移動する。上記のように、先端20の移動方向と、フレームにおける領域の移動方向との関係は、先端20の方向に応じて変化する。
When the insertion length changes, the frame generated by the
情報生成部32は、第1の実施形態における方法を使用することにより挿入長(仮挿入長)を算出する。情報生成部32は、センサ情報が示す角加速度を使用することにより、仮挿入長を補正する。これにより、情報生成部32は、最終的な挿入長を算出する。
The
図18を使用することにより、第2の実施形態における動画記録処理について説明する。図18は、動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the second embodiment will be described using FIG. 18. FIG. 18 shows the procedure for the video recording process. The description of the same process as that shown in FIG. 3 will be omitted.
ステップS102の後、情報受付部30は、操作情報およびセンサ情報をステップS101において記憶部31に保存されたフレームに付加する。例えば、情報受付部30は操作情報およびセンサ情報をフレームに埋め込む(ステップS110)。ステップS110の後、ステップS104が実行される。
After step S102, the
ステップS105の後、情報生成部32は、動画ファイルおよびセンサ情報に基づいて挿入長を算出する。情報生成部32は、座標情報および長さ情報(挿入長)を含む位置情報を生成し、生成された位置情報を各フレームに付加する。例えば、情報生成部32は位置情報をフレームに埋め込む(ステップS111)。ステップS111の後、ステップS107が実行される。
After step S105, the
制御部3の代わりに、図7に示す制御部3aが使用されてもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。
Instead of the
動画編集部33は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。
The
ハレーションなどが画像に発生した場合、情報生成部32が特徴点をその画像から検出することが難しい。その場合、情報生成部32がその画像を使用することにより挿入部2の先端20の位置を推定することが難しい。
If halation or the like occurs in the image, it is difficult for the
第2の実施形態において、情報生成部32は、動画ファイルに加えてセンサ情報を使用することにより挿入長を算出する。これにより、挿入長を推定する精度が向上する。
In the second embodiment, the
(第2の実施形態の第1の変形例)
本発明の第2の実施形態の第1の変形例を説明する。図2に示す内視鏡装置1は、図19に示す内視鏡装置1cに変更される。図19は、内視鏡装置1cの構成を示す。図2に示す制御部3は、図19に示す制御部3cに変更される。図2に示す構成と同じ構成の説明を省略する。
(First Modification of the Second Embodiment)
A first modified example of the second embodiment of the present invention will be described. The
制御部3cは、情報受付部30、記憶部31、情報生成部32、動画編集部33、およびセンサ35を有する。センサ35は、撮像素子(イメージセンサ)またはロータリーエンコーダーである。
The
センサ35が撮像素子である例を説明する。挿入長を示す所定の情報が挿入部2の表面に表示されている。所定の情報は、目盛、数字、またはマーク等である。撮像素子は、所定の情報が写っている画像を生成する。撮像素子は、生成された画像をセンサ情報として出力する。情報生成部32は、その画像を解析することにより挿入長を検出する。
An example will be described in which the
センサ35がロータリーエンコーダーである例を説明する。2つのローラーが、挿入部2を挟むように配置されている。2つのローラーは、挿入部2と接触している。挿入部2が移動すると2つのローラーが回転する。ロータリーエンコーダーは、2つのローラーのうちの少なくとも1つの回転量を検出することにより、挿入長を検出する。ロータリーエンコーダーは、検出された挿入長を示すセンサ情報を出力する。情報生成部32は、そのセンサ情報に基づいて挿入長(第2の仮挿入長)を検出する。
An example in which the
第2の実施形態の第1の変形例における動画記録処理の手順は、図18に示す手順と同じである。 The procedure for the video recording process in the first variant of the second embodiment is the same as that shown in FIG. 18.
挿入部2は、図13に示す挿入部2bに変更されてもよい。つまり、内視鏡装置1cは、センサ23およびセンサ35を有してもよい。内視鏡装置1cに配置されるセンサは、加速度センサ、ジャイロセンサ、6軸慣性センサ、撮像素子、およびロータリーエンコーダーのいずれか1つであってもよい。あるいは、内視鏡装置1cに配置されるセンサは、2つ以上のセンサの組み合わせであってもよい。
The
本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、2枚以上のフレームに加えて、センサ情報を使用することにより撮像素子22の位置を推定する。センサ情報は、第1のセンサによって生成された第1のセンサ情報、第2のセンサによって生成された第2のセンサ情報、および第3のセンサによって生成された第3のセンサ情報の少なくとも1つを含む。第1のセンサ情報は挿入長を示す。第2のセンサ情報は挿入部2の先端20の加速度を示す。第3のセンサ情報は、先端20の角速度を示す。
Each aspect of the present invention may include the following modifications. The
挿入長が変化せずに湾曲部21が挿入部2を湾曲させる場合がある。挿入部2が湾曲するため、撮像素子22によって生成されたフレームが変化する。この場合、情報生成部32によって算出された挿入長が変化する可能性がある。
There are cases where the
第2の実施形態の第1の変形例において、情報生成部32は、動画ファイルに加えて、挿入長を示すセンサ情報を使用することにより挿入長を算出する。これにより、挿入長を推定する精度が向上する。
In the first modification of the second embodiment, the
(第2の実施形態の第2の変形例)
本発明の第2の実施形態の第2の変形例を説明する。第2の実施形態の第2の変形例において、図13に示すセンサ23および図19に示すセンサ35の少なくとも1つを有する内視鏡装置が使用される。
(Second Modification of the Second Embodiment)
A second modification of the second embodiment of the present invention will now be described. In the second modification of the second embodiment, an endoscope apparatus having at least one of the
情報生成部32は、動画のフレームを使用せずに、センサ23およびセンサ35の少なくとも1つによって生成されたセンサ情報を使用することにより、挿入長を算出または検出する。
The
図20を使用することにより、第2の実施形態の第2の変形例における動画記録処理について説明する。図20は、動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。 The video recording process in the second modified example of the second embodiment will be described using FIG. 20. FIG. 20 shows the procedure for the video recording process. The description of the same process as that shown in FIG. 3 will be omitted.
ステップS102の後、情報生成部32は、センサ情報を使用することにより、挿入長を算出または検出する。情報生成部32は、長さ情報(挿入長)を含む位置情報を生成し、生成された位置情報を操作情報と一緒に各フレームに付加する。例えば、情報生成部32は位置情報および操作情報をフレームに埋め込む(ステップS120)。ステップS120の後、ステップS104が実行される。
After step S102, the
情報生成部32は、センサ23から出力されたセンサ情報を使用することにより、2枚以上のフレームの各々が生成されたときの挿入部2の先端20の位置を算出してもよい。情報生成部32は、算出された位置を示す座標情報と、長さ情報とを含む位置情報を生成してもよい。
The
ステップS105の後、図3に示すステップS106は実行されず、ステップS107が実行される。 After step S105, step S106 shown in FIG. 3 is not executed, and step S107 is executed.
図13に示す制御部3の代わりに、図7に示す制御部3aが使用されてもよい。あるいは、図19に示す制御部3cは、図7に示す処理部34を有してもよい。動画編集部33は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。
Instead of the
動画編集部33は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。
The
本発明の各態様は、次の変形例を含んでもよい。情報生成部32は、センサによって生成されたセンサ情報に基づいて長さ情報を生成する。そのセンサは、2枚以上のフレームの各々が生成されたときに被検体に挿入されている挿入部2の長さを検出する。
Each aspect of the present invention may include the following modifications: The
フレームに写っている被写体の状態が、動画の2枚以上のフレームを使用する自己位置推定の精度に影響する。第2の実施形態の第2の変形例において、情報生成部32は、動画のフレームの状態によらずに挿入長を算出または検出することができる。
The state of the subject in the frame affects the accuracy of self-location estimation using two or more frames of a video. In a second variant of the second embodiment, the
(第3の実施形態)
本発明の第3の実施形態を説明する。図21は、第3の実施形態による内視鏡システム10の構成を示す。図21に示す内視鏡システム10は、内視鏡装置1dおよび制御装置6を有する。図2に示す構成と同じ構成の説明を省略する。
Third Embodiment
A third embodiment of the present invention will be described. Fig. 21 shows the configuration of an
内視鏡装置1dは、挿入部2および制御部3dを有する。図21に示す挿入部2は、図2に示す挿入部2と同じである。制御部3dは、情報受付部30、記憶部31、および送信部36を有する。
The
例えば、制御装置6は、クラウドサーバーである。制御装置6は、受信部60、記憶部61、情報生成部62、および動画編集部63を有する。
For example, the
送信部36および受信部60の各々は、通信回路を有する通信機である。送信部36および受信部60は、通信を実行する。送信部36および受信部60が互いにケーブルで接続されてもよい。送信部36および受信部60は、無線通信を実行してもよい。送信部36は、記憶部31に記憶された動画ファイルを受信部60に送信する。受信部60は、送信部36によって送信された動画ファイルを受信する。
The transmitting
記憶部61は、揮発性または不揮発性の記録媒体である。例えば、記憶部61は、RAM、DRAM、SRAM、ROM、EPROM、EEPROM、およびフラッシュメモリの少なくとも1つである。記憶部61は、受信部60によって受信された動画ファイルを記憶する。情報生成部62は、図2に示す情報生成部32の機能と同様の機能を持つ。動画編集部63は、図2に示す動画編集部33の機能と同様の機能を持つ。
The
情報生成部62および動画編集部63は、プロセッサおよび論理回路の少なくとも1つで構成されてもよい。情報生成部62および動画編集部63は、1つまたは複数のプロセッサを含んでもよい。情報生成部62および動画編集部63は、1つまたは複数の論理回路を含んでもよい。
The
図22を使用することにより、第3の実施形態における動画記録処理について説明する。図22は、内視鏡装置1dによって実行される動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。
The video recording process in the third embodiment will be described using FIG. 22. FIG. 22 shows the procedure for the video recording process executed by the
ステップS105の後、送信部36は、記憶部31に記憶された動画ファイルを受信部60に送信する(ステップS130)。ステップS130が実行されたとき、動画記録処理が終了する。
After step S105, the
図23を使用することにより、制御装置6によって実行される処理について説明する。図23は、制御装置6によって実行される処理の手順を示す。
The process executed by the
受信部60は、送信部36によって送信された動画ファイルを受信する(ステップS200)。受信部60によって受信された動画ファイルは記憶部61に保存される。
The receiving
ステップS200の後、情報生成部62は、動画ファイルに含まれる2枚以上のフレームを使用することにより自己位置推定を実行する。これにより、情報生成部62は、その2枚以上のフレームの各々に対する位置情報を生成する。情報生成部62は、生成された位置情報を各フレームに付加する。例えば、情報生成部62は位置情報をフレームに埋め込む(ステップS201)。
After step S200, the
ステップS201の後、動画編集部63は動画編集処理を実行する(ステップS202)。ステップS202における動画編集処理は、図4に示す動画編集処理と同じである。ステップS202が終了したとき、図23に示す処理が終了する。
After step S201, the
図21に示す制御部3dは、図7に示す処理部34を有してもよい。動画編集部63は、第1の実施形態の第1の変形例における方法を使用することにより、第1の区間におけるフレーム数を調整してもよい。
The
動画編集部63は、図4に示す動画編集処理の代わりに図9または図10に示す動画編集処理を実行してもよい。
The
内視鏡装置1dは、図13に示すセンサ23および図19に示すセンサ35の少なくとも1つを有してもよい。図22に示す動画記録処理において、図18に示すステップS110およびステップS111が実行されてもよい。図22に示す動画記録処理において、図20に示すステップS120が実行されてもよい。
The
第3の実施形態において内視鏡システム10は、動画再生時のユーザーの負担を低減させることができる。また、第3の実施形態において内視鏡システム10は、動画再生時にユーザーに重要な箇所を容易に確認させることができる。
In the third embodiment, the
一般的に、多くの計算リソースが自己位置推定のための画像処理に必要である。その画像処理が内視鏡装置において実行される場合、内視鏡装置の消費電流が増大する、または内視鏡装置が大型化する。制御装置6がその画像処理を実行するため、そのような問題の発生が抑制される。
Generally, image processing for self-position estimation requires a large amount of computational resources. If that image processing is performed in an endoscope device, the current consumption of the endoscope device increases, or the endoscope device becomes larger. Because the
(第3の実施形態の変形例)
本発明の第3の実施形態の変形例を説明する。第3の実施形態の変形例において、内視鏡装置1dは、撮像素子22によって生成されたフレームを制御装置6にリアルタイムに送信する。第3の実施形態の変形例において、内視鏡装置1dは、記憶部31を有する必要はない。
(Modification of the third embodiment)
A modified example of the third embodiment of the present invention will be described. In the modified example of the third embodiment, the
図24および図25を使用することにより、第3の実施形態の変形例における動画記録処理について説明する。図24は、内視鏡装置1dによって実行される動画記録処理の手順を示す。図3に示す処理と同じ処理の説明を省略する。
The video recording process in the modified example of the third embodiment will be described using Figures 24 and 25. Figure 24 shows the procedure for the video recording process executed by the
ステップS103の後、送信部36は、フレームを受信部60に送信する(ステップS140)。ステップS140の後、ステップS104が実行される。情報受付部30が記録終了指示を受け付けた場合、動画記録処理が終了する。
After step S103, the transmitting
図25は、制御装置6によって実行される動画記録処理の手順を示す。図23に示す処理と同じ処理の説明を省略する。
Figure 25 shows the procedure for video recording processing executed by the
受信部60は、送信部36によって送信されたフレームを受信する(ステップS210)。受信部60によって受信されたフレームは記憶部61に保存される。
The receiving
受信部60が、送信部36から送信された全てのフレームを受信するまで、ステップS210が繰り返される。受信部60が、送信部36から送信された全てのフレームを受信した場合(ステップS211)、動画編集部63は、記憶部61に保存されたフレームを含む動画ファイルを生成する(ステップS212)。動画ファイルは記憶部61に保存される。ステップS212の後、ステップS202が実行される。
Step S210 is repeated until the receiving
第3の実施形態の変形例において、内視鏡装置1dは動画ファイルを記憶する必要はない。そのため、内視鏡装置1dにおける記憶容量が節約される。
In a modification of the third embodiment, the
(第4の実施形態)
本発明の第4の実施形態を説明する。図21に示す内視鏡システム10は、図26に示す内視鏡システム10eに変更される。図26は、内視鏡システム10eの構成を示す。図21に示す構成と同じ構成の説明を省略する。
(Fourth embodiment)
A fourth embodiment of the present invention will be described. The
図21に示す内視鏡装置1dは、図26に示す内視鏡装置1eに変更される。図21に示す制御部3dは、図26に示す制御部3eに変更される。制御部3eは、情報受付部30、記憶部31、送信部36、および受信部37を有する。
The
図21に示す制御装置6は、図26に示す制御装置6eに変更される。制御装置6eは、受信部60、記憶部61、情報生成部62、動画編集部63、情報受付部64、および送信部65を有する。
The
情報受付部64は、図1に示す情報受付部30の機能と同様の機能を持つ。制御装置6eは、図26に示されていない操作部を有する。ユーザーは、制御装置6の操作部を操作することにより、操作情報を制御装置6eに入力する。制御装置6の操作部は、ユーザーによって入力された情報を出力する。情報受付部64は、操作情報を受け付ける。情報受付部64は、操作情報を送信部65に出力する。
The
送信部65および受信部37の各々は、通信回路を有する通信機である。送信部65および受信部37は、通信を実行する。送信部65および受信部37が互いにケーブルで接続されてもよい。送信部65および受信部37は、無線通信を実行してもよい。送信部65は、情報受付部64から出力された操作情報を受信部37に送信する。受信部37は、送信部65によって送信された操作情報を受信する。受信部37は、受信された操作情報を情報受付部30に出力する。
The transmitting
送信部36および受信部37は1つの通信機として一体化されてもよい。送信部65および受信部60は1つの通信機として一体化されてもよい。
The
情報受付部30は、受信部37から出力された操作情報を受け付ける。情報受付部30は、操作情報を受け付けた後、第1の実施形態における動作と同じ動作を実施する。
The
内視鏡装置1eは、図22に示す処理を実行し、かつ制御装置6eは、図23に示す処理を実行する。あるいは、内視鏡装置1eは、図24に示す処理を実行し、かつ制御装置6eは、図25に示す処理を実行する。
The
情報受付部30は、操作情報をフレームに付加する必要はない。情報受付部64は、操作情報を記憶部61に保存されたフレームに付加してもよい。
The
第4の実施形態において、第3の実施形態における効果と同様の効果が得られる。 The fourth embodiment provides the same effect as the third embodiment.
以上、本発明の好ましい実施形態を説明したが、本発明はこれら実施形態およびその変形例に限定されることはない。本発明の趣旨を逸脱しない範囲で、構成の付加、省略、置換、およびその他の変更が可能である。また、本発明は前述した説明によって限定されることはなく、添付のクレームの範囲によってのみ限定される。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments and their variations. Addition, omission, substitution, and other modifications of the configuration are possible without departing from the spirit of the present invention. Furthermore, the present invention is not limited to the above description, but is limited only by the scope of the attached claims.
1,1a,1b,1c,1d,1e 内視鏡装置
2,2b 挿入部
3,3a,3c,3d,3e 制御部
4 操作部
5 表示部
6,6e 制御装置
10,10e 内視鏡システム
20 先端
21 湾曲部
22 撮像素子
23,35 センサ
30,64 情報受付部
31,61 記憶部
32,62 情報生成部
33,63 動画編集部
34 処理部
36,65 送信部
37,60 受信部
REFERENCE SIGNS
Claims (14)
制御部と、
を有し、
前記制御部は、
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、
前記動画を編集する動画編集部と、
を有し、
前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、
前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す
内視鏡装置。 an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames;
A control unit;
having
The control unit is
an information receiving unit that receives operation information indicating the content of an operation performed by a user;
an information generating unit that generates length information indicating a length of a portion of the insertion portion that is inserted into the subject when each of the two or more frames is generated;
A video editing unit that edits the video;
having
the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
the video editing unit reduces a number of frames per unit length in the second section based on the length information;
an endoscope apparatus, wherein the video editing unit adjusts the number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
請求項1に記載の内視鏡装置。 The endoscope device according to claim 1 , wherein the video editing unit adjusts the number of frames in the second section so that an apparent speed at which the insertion section is inserted into the subject during playback of the video in the second section is constant.
請求項1に記載の内視鏡装置。 The endoscope device according to claim 1 , wherein the information generation unit estimates a position of the imaging element at a timing when each of the two or more frames is generated by using the two or more frames, and estimates the length based on the estimated position.
請求項3に記載の内視鏡装置。 4. The endoscope device according to claim 3, wherein the information generating unit estimates the position by using sensor information in addition to the two or more frames, the sensor information including at least one of first sensor information generated by a first sensor, second sensor information generated by a second sensor, and third sensor information generated by a third sensor, the first sensor information indicating the length, the second sensor information indicating an acceleration of a tip of the insertion portion, and the third sensor information indicating an angular velocity of the tip.
請求項3に記載の内視鏡装置。 The endoscope apparatus according to claim 3 , wherein the video editing unit deletes a part of the two or more frames so as to minimize a trajectory of the change in position.
請求項1に記載の内視鏡装置。 The endoscope apparatus according to claim 1 , wherein the information generating unit generates the length information based on sensor information generated by a sensor that detects the length.
請求項1に記載の内視鏡装置。 The endoscopic device according to claim 1, wherein the operation information includes at least one of an instruction to acquire a still image, an instruction to save a still image, an instruction to perform a measurement, an instruction to bend the insertion portion, an instruction to change image processing settings, an instruction to attach a label to the video, and an instruction to attach information to a still image.
請求項7に記載の内視鏡装置。 The endoscopic device of claim 7 , wherein the information includes notes and wound assessment results.
前記1つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値よりも大きい場合、前記動画編集部は、前記1つ以上の部分区間の少なくとも1つにおける少なくとも1枚のフレームを間引く
請求項1に記載の内視鏡装置。 the second interval includes one or more subintervals;
The endoscope device according to claim 1 , wherein when the number of frames per unit length in at least one of the one or more partial sections is greater than a predetermined value, the video editing unit thins out at least one frame in at least one of the one or more partial sections.
前記2つ以上の部分区間の少なくとも1つにおける前記単位長さあたりのフレーム数が所定値以下である場合、前記動画編集部は、前記2つ以上の部分区間の少なくとも1つに少なくとも1枚のフレームを追加する
請求項9に記載の内視鏡装置。 the second interval includes two or more subintervals;
The endoscope device according to claim 9 , wherein when the number of frames per unit length in at least one of the two or more partial sections is equal to or less than a predetermined value, the video editing unit adds at least one frame to at least one of the two or more partial sections.
請求項1に記載の内視鏡装置。 The endoscope device according to claim 1, wherein the one or more frames in the first section include one frame generated at the timing when the user performs the specified operation, one or more frames generated before the timing, and one or more frames generated after the timing.
前記内視鏡装置は、
被検体に挿入することができる挿入部であって、2枚以上のフレームを含む動画を生成する撮像素子を有する前記挿入部と、
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付部と、
前記動画を前記制御装置に送信する送信部と、
を有し、
前記制御装置は、
前記動画を前記内視鏡装置から受信する受信部と、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成部と、
前記動画を編集する動画編集部と、
を有し、
前記動画編集部は、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類し、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含み、
前記動画編集部は、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らし、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整し、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す
内視鏡システム。 An endoscope device and a control device are provided.
The endoscope device includes:
an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames;
an information receiving unit that receives operation information indicating the content of an operation performed by a user;
A transmission unit that transmits the video to the control device;
having
The control device includes:
a receiving unit that receives the video from the endoscope device;
an information generating unit that generates length information indicating a length of a portion of the insertion portion that is inserted into the subject when each of the two or more frames is generated;
A video editing unit that edits the video;
having
the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
the video editing unit reduces a number of frames per unit length in the second section based on the length information;
an endoscope system, wherein the video editing unit adjusts the number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating the number of frames per unit length in the first section, and the second number of frames indicating the number of frames per unit length in the second section.
前記作動方法は、
ユーザーによって実施された操作の内容を示す操作情報を前記制御部の情報受付部が受け付ける情報受付ステップと、
前記制御部の情報生成部が、前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、
前記制御部の動画編集部が前記動画を編集する動画編集ステップと、
を有し、
前記動画編集ステップは、前記動画編集部が、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、
前記動画編集部が、前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、
前記動画編集部は、第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、
を有する
内視鏡装置の作動方法。 1. A method for operating an endoscope apparatus including an insertion section that can be inserted into a subject, the insertion section having an image sensor that generates a moving image including two or more frames, and a control section, the method comprising the steps of:
The method of operation includes:
an information receiving step in which an information receiving unit of the control unit receives operation information indicating the content of an operation performed by a user;
an information generating step in which an information generating unit of the control unit generates length information indicating a length of a portion of the insertion portion inserted into the subject when each of the two or more frames is generated;
a video editing step in which a video editing unit of the control unit edits the video;
having
The video editing step includes a classification step in which the video editing unit classifies the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
a second section editing step of reducing a number of frames per unit length in the second section based on the length information by the video editing unit;
a first section editing step of adjusting a number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating a number of frames per unit length in the first section, and the second number of frames indicating a number of frames per unit length in the second section;
A method for operating an endoscope apparatus comprising the steps of:
ユーザーによって実施された操作の内容を示す操作情報を受け付ける情報受付ステップと、
前記2枚以上のフレームの各々が生成されたときに前記被検体に挿入されている前記挿入部の部分の長さを示す長さ情報を生成する情報生成ステップと、
前記動画を編集する動画編集ステップと、
を実行させるためのプログラムであって、
前記動画編集ステップは、前記操作情報に基づいて、前記2枚以上のフレームを第1の区間における1枚以上のフレームと、前記第1の区間と異なる第2の区間における1枚以上のフレームとに分類する分類ステップであって、前記第1の区間は、ユーザーが所定の操作を実施したタイミングを含む前記分類ステップと、
前記長さ情報に基づいて、前記第2の区間における単位長さあたりのフレーム数を減らす第2の区間編集ステップと、
第1のフレーム数が第2のフレーム数よりも大きくなるように前記第1の区間におけるフレーム数を調整する第1の区間編集ステップであって、前記第1のフレーム数は、前記第1の区間における前記単位長さあたりのフレーム数を示し、前記第2のフレーム数は、前記第2の区間における前記単位長さあたりのフレーム数を示す前記第1の区間編集ステップと、
を有するプログラム。 A computer of an endoscope apparatus including an insertion section that can be inserted into a subject and has an image sensor that generates a moving image including two or more frames, and a control section,
an information receiving step of receiving operation information indicating the content of an operation performed by a user;
an information generating step of generating length information indicating a length of a portion of the insertion section inserted into the subject when each of the two or more frames is generated;
a video editing step of editing the video;
A program for executing
the video editing step includes a classification step of classifying the two or more frames into one or more frames in a first section and one or more frames in a second section different from the first section based on the operation information, the first section including a timing at which a user performed a predetermined operation;
a second section editing step of reducing the number of frames per unit length in the second section based on the length information;
a first section editing step of adjusting a number of frames in the first section so that a first number of frames is greater than a second number of frames, the first number of frames indicating a number of frames per unit length in the first section, and the second number of frames indicating a number of frames per unit length in the second section;
A program having:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021095159A JP7619893B2 (en) | 2021-06-07 | 2021-06-07 | ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021095159A JP7619893B2 (en) | 2021-06-07 | 2021-06-07 | ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022187239A JP2022187239A (en) | 2022-12-19 |
JP7619893B2 true JP7619893B2 (en) | 2025-01-22 |
Family
ID=84525409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021095159A Active JP7619893B2 (en) | 2021-06-07 | 2021-06-07 | ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7619893B2 (en) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290820A (en) | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | Video collection device, video search device, and video collection and search system |
JP2007313170A (en) | 2006-05-29 | 2007-12-06 | Olympus Corp | Endoscope system and endoscope observation method |
JP2008301968A (en) | 2007-06-06 | 2008-12-18 | Olympus Medical Systems Corp | Endoscopic image processing device |
US20110032347A1 (en) | 2008-04-15 | 2011-02-10 | Gerard Lacey | Endoscopy system with motion sensors |
JP2012014129A (en) | 2010-07-05 | 2012-01-19 | Olympus Corp | Endoscope apparatus and examination method using the same |
JP2014076174A (en) | 2012-10-10 | 2014-05-01 | Olympus Corp | Insertion system having insertion part and insertion member |
JP2014165530A (en) | 2013-02-21 | 2014-09-08 | Olympus Corp | Image processing system |
WO2018043550A1 (en) | 2016-08-31 | 2018-03-08 | Hoya株式会社 | Electronic endoscope processor and electronic endoscopic system |
JP2018057799A (en) | 2016-09-29 | 2018-04-12 | 富士フイルム株式会社 | Endoscope system and method of driving endoscope system |
JP2018180275A (en) | 2017-04-13 | 2018-11-15 | オリンパス株式会社 | Endoscope device, endoscope system, and method for controlling display of endoscope image |
JP2019056764A (en) | 2017-09-20 | 2019-04-11 | オリンパス株式会社 | Endoscope apparatus, endoscope system and inspection method |
WO2019198637A1 (en) | 2018-04-13 | 2019-10-17 | 富士フイルム株式会社 | Image processing device, endoscope system, and image processing method |
-
2021
- 2021-06-07 JP JP2021095159A patent/JP7619893B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001290820A (en) | 2000-01-31 | 2001-10-19 | Mitsubishi Electric Corp | Video collection device, video search device, and video collection and search system |
JP2007313170A (en) | 2006-05-29 | 2007-12-06 | Olympus Corp | Endoscope system and endoscope observation method |
JP2008301968A (en) | 2007-06-06 | 2008-12-18 | Olympus Medical Systems Corp | Endoscopic image processing device |
US20110032347A1 (en) | 2008-04-15 | 2011-02-10 | Gerard Lacey | Endoscopy system with motion sensors |
JP2012014129A (en) | 2010-07-05 | 2012-01-19 | Olympus Corp | Endoscope apparatus and examination method using the same |
JP2014076174A (en) | 2012-10-10 | 2014-05-01 | Olympus Corp | Insertion system having insertion part and insertion member |
JP2014165530A (en) | 2013-02-21 | 2014-09-08 | Olympus Corp | Image processing system |
WO2018043550A1 (en) | 2016-08-31 | 2018-03-08 | Hoya株式会社 | Electronic endoscope processor and electronic endoscopic system |
JP2018057799A (en) | 2016-09-29 | 2018-04-12 | 富士フイルム株式会社 | Endoscope system and method of driving endoscope system |
JP2018180275A (en) | 2017-04-13 | 2018-11-15 | オリンパス株式会社 | Endoscope device, endoscope system, and method for controlling display of endoscope image |
JP2019056764A (en) | 2017-09-20 | 2019-04-11 | オリンパス株式会社 | Endoscope apparatus, endoscope system and inspection method |
WO2019198637A1 (en) | 2018-04-13 | 2019-10-17 | 富士フイルム株式会社 | Image processing device, endoscope system, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2022187239A (en) | 2022-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5361592B2 (en) | Endoscope apparatus, measurement method, and program | |
US9214139B2 (en) | Image display apparatus and image display method | |
JP5073564B2 (en) | Endoscope device for measurement and program | |
CN114332028B (en) | Endoscopic image processing method, device, readable medium and electronic device | |
US11055865B2 (en) | Image acquisition device and method of operating image acquisition device | |
JP7116925B2 (en) | Observation device operating method, observation device, and program | |
US10964044B2 (en) | Method of operating measurement device, measurement device, and recording medium | |
JP5437087B2 (en) | Endoscope apparatus and program | |
JP2018197674A (en) | Operation method of measuring device, measuring device, measurement system, three-dimensional shape restoring device, and program | |
JP2020134242A (en) | Measuring method, measuring device and program | |
CN106662923A (en) | Information processing device, information processing method and program | |
KR100412932B1 (en) | Method of displaying and evaluating motion data using in motion game apparatus | |
JP2011134113A (en) | Apparatus and method for presenting information and program | |
US20250180353A1 (en) | Image-processing method, image-processing device, and recording medium | |
JP7619893B2 (en) | ENDOSCOPIC APPARATUS, ENDOSCOPIC SYSTEM, OPERATION METHOD OF ENDOSCOPIC APPARATUS, AND PROGRAM | |
JP5307407B2 (en) | Endoscope apparatus and program | |
JP4855912B2 (en) | Endoscope insertion shape analysis system | |
JP5253109B2 (en) | Endoscope apparatus and endoscopic image program | |
JP2011170276A (en) | Endoscope device and program | |
JP7720190B2 (en) | Insertion support system, insertion support method, and program | |
JP4487077B2 (en) | 3D display method using video images continuously acquired by a single imaging device | |
JP2014147572A (en) | Endoscope device and program | |
JP7720180B2 (en) | Image processing method, image processing device, and program | |
JP2022159806A (en) | DATA PROCESSING METHOD, DATA PROCESSING APPARATUS, AND PROGRAM | |
JP2024104192A (en) | Image processing device, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220629 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20240109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20241120 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241224 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20250109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7619893 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |