[go: up one dir, main page]

JP7621423B2 - Information processing device, program and method - Google Patents

Information processing device, program and method Download PDF

Info

Publication number
JP7621423B2
JP7621423B2 JP2023102633A JP2023102633A JP7621423B2 JP 7621423 B2 JP7621423 B2 JP 7621423B2 JP 2023102633 A JP2023102633 A JP 2023102633A JP 2023102633 A JP2023102633 A JP 2023102633A JP 7621423 B2 JP7621423 B2 JP 7621423B2
Authority
JP
Japan
Prior art keywords
area
value
image
user
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023102633A
Other languages
Japanese (ja)
Other versions
JP2025002446A (en
Inventor
成広 武田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2023102633A priority Critical patent/JP7621423B2/en
Publication of JP2025002446A publication Critical patent/JP2025002446A/en
Application granted granted Critical
Publication of JP7621423B2 publication Critical patent/JP7621423B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、情報処理装置、プログラム及び方法に関する。 The present invention relates to an information processing device, a program, and a method.

特許文献1には、他人から覗き見されるリスクがあると判断した場合、他人から覗き見されないような設定を自動的に行う情報表示装置が開示されている。特許文献2には、使用者以外の者による視線を検知したときに、覗き見防止制御を行う電子機器が開示されている。特許文献3には、スクリーン画像でユーザが注視した視線情報をユーザごとに取得し、当該ユーザがスクリーン画像内のどの表示領域を注視していたかを表示させる技術が開示されている。
(先行技術文献)
(特許文献)
(特許文献1) 特開2012-129701号公報
(特許文献2) 特許第6474921号
(特許文献3) 特許第6485522号
Patent Literature 1 discloses an information display device that automatically sets the device to prevent others from peeking when it is determined that there is a risk of others peeking. Patent Literature 2 discloses an electronic device that performs anti-peeking control when it detects the line of sight of a person other than the user. Patent Literature 3 discloses a technology that acquires line-of-sight information of a user's gaze on a screen image for each user and displays which display area in the screen image the user has gazed on.
(Prior Art Literature)
(Patent Documents)
(Patent Document 1) JP 2012-129701 A (Patent Document 2) Japanese Patent No. 6474921 (Patent Document 3) Japanese Patent No. 6485522

本発明の第1の態様においては、情報処理装置が提供される。上記の情報処理装置は、例えば、画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成する。上記の情報処理装置は、例えば、生成画像の一部に配される1以上の位置又は範囲であって、画像表示装置のユーザにより指定又は参照された位置又は範囲である作業位置を特定する作業位置特定部を備える。上記の情報処理装置は、例えば、作業位置特定部が特定した作業位置に基づいて、秘匿化が施される領域である対象領域を決定する対象領域決定部を備える。上記の情報処理装置は、例えば、生成画像の一部に配され、作業位置を含む領域である作業領域を決定する作業領域決定部を備える。 In a first aspect of the present invention, an information processing device is provided. The information processing device, for example, conceals a part of a generated image generated by an image generating device and generates a display image to be displayed on an image display device. The information processing device, for example, includes a work position identification unit that identifies a work position, which is one or more positions or ranges located in a part of the generated image and is a position or range specified or referenced by a user of the image display device. The information processing device, for example, includes a target area determination unit that determines a target area, which is an area to be concealed, based on the work position identified by the work position identification unit. The information processing device, for example, includes a work area determination unit that determines a work area, which is an area located in a part of the generated image and includes the work position.

上記の情報処理装置は、生成画像を複数の区画に分割する分割部を備えてよい。上記の情報処理装置は、複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出部を備えてよい。上記の情報処理装置において、対象領域決定部は、価値導出部が導出した価値と、作業位置特定部が特定した作業位置とに基づいて、対象領域を決定してよい。 The information processing device may include a division unit that divides the generated image into a plurality of sections. The information processing device may include a value derivation unit that derives the value of information contained in each section for at least a portion of the plurality of sections. In the information processing device, the target area determination unit may determine the target area based on the value derived by the value derivation unit and the work position identified by the work position identification unit.

上記の情報処理装置において、対象領域決定部は、(a)少なくとも、複数の区画のうち、作業領域の範囲外に配され、価値が予め定められた第1の度合いよりも大きな区画に秘匿化が施されることを決定してよい。対象領域決定部は、(b)作業領域の内部に、複数の区画のうち価値が予め定められた第2の度合いよりも大きな区画が含まれていない場合、作業領域に秘匿化が施されないことを決定してよい。対象領域決定部は、(c)作業領域の内部に、複数の区画のうち価値が第2の度合いよりも大きな区画が含まれている場合、少なくとも、価値が第2の度合いよりも大きな区画に秘匿化が施されることを決定してよい。上記の情報処理装置において、第2の度合いは、第1の度合いよりも大きくてよい。上記の情報処理装置において、作業領域決定部は、価値導出部が導出した価値であって、(i)複数の区画のうち、作業位置を含む区画に含まれる情報の価値、又は、(ii)作業位置に含まれる情報の価値に基づいて、作業領域の範囲を決定してよい。 In the above information processing device, the target area determination unit may (a) determine that at least one of the multiple sections that is located outside the range of the working area and has a value greater than a predetermined first degree is to be concealed. The target area determination unit may (b) determine that the working area is not to be concealed if the working area does not include any of the multiple sections whose value is greater than a predetermined second degree. The target area determination unit may (c) determine that at least one of the multiple sections whose value is greater than the second degree is to be concealed if the working area includes any of the multiple sections whose value is greater than the second degree. In the above information processing device, the second degree may be greater than the first degree. In the above information processing device, the working area determination unit may determine the range of the working area based on the value derived by the value derivation unit, which is (i) the value of information included in a section that includes the working position among the multiple sections, or (ii) the value of information included in the working position.

上記の情報処理装置は、価値導出部が導出した価値であって、対象領域に含まれる情報の価値に基づいて、対象領域の秘匿化の態様を決定する態様決定部を備えてよい。上記の情報処理装置は、ユーザと、画像表示装置との距離が予め定められた値よりも小さくなった場合に、ユーザの画像表示装置への近接を検出する近接検出部を備えてよい。上記の情報処理装置において、態様決定部は、ユーザの画像表示装置への近接が検出された場合に、作業領域の内部に含まれる文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つの大きさを小さくすることを決定してよい。 The information processing device may include a mode determination unit that determines a mode of concealment of the target area based on the value derived by the value derivation unit, which is the value of the information included in the target area. The information processing device may include a proximity detection unit that detects the approach of the user to the image display device when the distance between the user and the image display device becomes smaller than a predetermined value. In the information processing device, the mode determination unit may determine to reduce the size of at least one selected from the group consisting of character strings, pictures, diagrams, tables, photographs, and videos, and parts of these, included within the working area, when the approach of the user to the image display device is detected.

本発明の第2の態様においては、画像を生成するための方法が提供される。上記の方法は、例えば、画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成するための方法である。上記の方法の各段階の動作主体は、コンピュータであってよい。 In a second aspect of the present invention, a method for generating an image is provided. The method is, for example, a method for generating a display image to be displayed on an image display device by concealing a part of a generated image generated by an image generating device. The subject of operation of each step of the method may be a computer.

上記の方法は、例えば、生成画像の一部に配される1以上の位置又は範囲であって、画像表示装置のユーザにより指定又は参照された位置又は範囲である作業位置を特定する作業位置特定段階を有する。上記の方法は、例えば、作業位置特定段階において特定された作業位置に基づいて、秘匿化が施される領域である対象領域を決定する対象領域決定段階を有する。上記の方法は、例えば、生成画像の一部に配され、作業位置を含む領域である作業領域を決定する作業領域決定段階を有する。 The above method includes, for example, a work position identification step of identifying a work position, which is one or more positions or ranges located in a part of the generated image and which is a position or range specified or referenced by a user of the image display device. The above method includes, for example, a target area determination step of determining a target area, which is an area to be concealed, based on the work position identified in the work position identification step. The above method includes, for example, a work area determination step of determining a work area, which is an area located in a part of the generated image and which includes the work position.

本発明の第3の態様においては、プログラムが提供される。上記のプログラムは、コンピュータを、上記の第1の実施形態に係る情報処理装置として機能させるためのプログラムであってよい。上記のプログラムは、コンピュータに、上記の第2の実施形態に係る方法を実行させるためのプログラムであってよい。上記のプログラムを格納するコンピュータ可読媒体が提供されてもよい。コンピュータ可読媒体は、非一時的なコンピュータ可読媒体であってもよい。コンピュータ可読媒体は、コンピュータ可読記録媒体であってもよい。 In a third aspect of the present invention, a program is provided. The program may be a program for causing a computer to function as the information processing device according to the first embodiment. The program may be a program for causing a computer to execute the method according to the second embodiment. A computer-readable medium for storing the program may be provided. The computer-readable medium may be a non-transitory computer-readable medium. The computer-readable medium may be a computer-readable recording medium.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

情報漏洩抑制システム100のシステム構成の一例を概略的に示す。1 shows an example of a system configuration of an information leakage prevention system 100. 元画像200の一例を概略的に示す。An example of an original image 200 is shown diagrammatically. 出力画像300の一例を概略的に示す。An example of an output image 300 is shown diagrammatically. 制御装置170における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the control device 170. 制御装置170の内部構成の一例を概略的に示す。2 shows an example of the internal configuration of the control device 170. 価値マップ生成部582の内部構造の一例を概略的に示す。13 shows an example of the internal structure of the value map generator 582. データテーブル700のデータ構造の一例を概略的に示す。7 shows an example of a data structure of a data table 700. 秘匿化処理部584の内部構成の一例を概略的に示す。13 shows an example of an internal configuration of the concealment processing unit 584. データテーブル900のデータ構造の一例を概略的に示す。9 shows an example of a data structure of a data table 900. データテーブル1000のデータ構造の一例を概略的に示す。10 shows an example of a data structure of a data table 1000. 漏洩防止支援部586における情報処理の一例を概略的に示す。13 illustrates an example of information processing in the leakage prevention support unit 586. 漏洩防止支援部586における情報処理の他の例を概略的に示す。13 is a schematic diagram showing another example of information processing in the leakage prevention support unit 586. 元画像200の分割方法の他の例を概略的に示す。2A and 2B show schematic diagrams of another example of a method for dividing the original image 200. コンピュータ3000のシステム構成の一例を概略的に示す。An example of the system configuration of a computer 3000 is shown in schematic form.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。なお、図面において、同一または類似の部分には同一の参照番号を付して、重複する説明を省く場合がある。また、本明細書の記載に接した当業者であれば、技術的に矛盾しない範囲において、一の実施形態について説明された技術的事項が、他の実施形態にも適用され得ることを理解することができる。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention. In the drawings, the same reference numbers may be used for identical or similar parts, and duplicate explanations may be omitted. Furthermore, a person skilled in the art who has come across the description of this specification will be able to understand that technical matters described in one embodiment may also be applied to other embodiments to the extent that there is no technical contradiction.

(情報漏洩抑制システム100の概要)
図1、図2及び図3を用いて、情報漏洩抑制システム100の概要が説明される。図1は、情報漏洩抑制システム100のシステム構成の一例を概略的に示す。本実施形態において、情報漏洩抑制システム100は、ユーザに提示される情報の一部を秘匿化することができる。情報漏洩抑制システム100は、例えば、情報漏洩抑制システム100により管理される端末の管理者又は当該端末ユーザの指示に応じて、当該端末により表示される画像の一部を秘匿化する。
(Overview of information leakage prevention system 100)
An overview of the information leakage prevention system 100 will be described with reference to Figures 1, 2, and 3. Figure 1 shows an example of a system configuration of the information leakage prevention system 100. In this embodiment, the information leakage prevention system 100 can conceal a part of information presented to a user. The information leakage prevention system 100 conceals a part of an image displayed by a terminal managed by the information leakage prevention system 100, for example, in response to an instruction from an administrator of the terminal or a user of the terminal.

本実施形態においては、情報漏洩抑制システム100が、(i)まず、秘匿化処理が施されていない元画像200を生成し、(ii)次に、元画像200の少なくとも一部を秘匿化して、ユーザに提示される出力画像300を生成する場合を例として、情報漏洩抑制システム100の詳細が説明される。図2は、元画像200の一例を概略的に示す。図3は、出力画像300の一例を概略的に示す。 In this embodiment, the information leakage prevention system 100 is described in detail using an example in which the information leakage prevention system 100 (i) first generates an original image 200 that has not been subjected to an anonymization process, and (ii) then anonymizes at least a portion of the original image 200 to generate an output image 300 to be presented to a user. FIG. 2 shows an example of the original image 200. FIG. 3 shows an example of the output image 300.

図1に示されるとおり、本実施形態において、情報漏洩抑制システム100は、例えば、ユーザ端末120を備える。本実施形態において、ユーザ端末120は、例えば、筐体130と、表示装置140と、環境センサ150と、入力装置160と、制御装置170とを有する。本実施形態において、表示装置140は、例えば、表示領域142を含む。本実施形態において、環境センサ150は、距離センサ152と、カメラ154と、電波検知機156とを含む。 As shown in FIG. 1, in this embodiment, the information leakage prevention system 100 includes, for example, a user terminal 120. In this embodiment, the user terminal 120 includes, for example, a housing 130, a display device 140, an environmental sensor 150, an input device 160, and a control device 170. In this embodiment, the display device 140 includes, for example, a display area 142. In this embodiment, the environmental sensor 150 includes a distance sensor 152, a camera 154, and a radio wave detector 156.

本実施形態において、ユーザ端末120は、ユーザに各種の情報を出力する。ユーザ端末120は、画像により情報を出力してもよく、音声により情報を出力してもよい。ユーザ端末120は、ユーザからの情報の入力を受け付けてもよい。ユーザ端末120は、各種の情報処理を実行可能に構成される。 In this embodiment, the user terminal 120 outputs various types of information to the user. The user terminal 120 may output information by image or by sound. The user terminal 120 may accept information input from the user. The user terminal 120 is configured to be able to execute various types of information processing.

本実施形態においては、ユーザ端末120が画像を出力する場合を例として、ユーザ端末120の詳細が説明される。例えば、ユーザ端末120のユーザは、入力装置160を介して、ユーザ端末120の上で動作するBIOS、オペレーションシステム(OSと称される場合がある。)又はアプリケーションプログラム(これらの総称としてプログラムという用語が用いられる場合がある。)に対する指示を、ユーザ端末120に入力する。ユーザ端末120は、当該指示に応じた情報処理を実行し、当該情報処理の結果を示す画像を表示領域142に表示する。 In this embodiment, the details of the user terminal 120 are described using as an example a case where the user terminal 120 outputs an image. For example, a user of the user terminal 120 inputs instructions to the user terminal 120 via the input device 160 for the BIOS, operating system (sometimes referred to as OS), or application program (sometimes referred to as program) running on the user terminal 120. The user terminal 120 executes information processing according to the instructions, and displays an image showing the results of the information processing in the display area 142.

本実施形態において、ユーザ端末120は、例えば、ユーザ端末120の上で動作するプログラムが生成した元画像200の一部を秘匿化して、出力画像300を生成する。ユーザ端末120は、表示装置140の表示領域142に出力画像300を表示する。これにより、出力画像300がユーザに提示される。本実施形態によれば、出力画像300の一部は秘匿化されている。そのため、仮に、表示領域142に表示されている出力画像300が、表示領域142の近傍に存在するユーザ以外の人物に閲覧されたとしても、情報の漏洩が抑制され得る。元画像200を生成するプログラムとしては、BIOS、オペレーションシステム(OSと称される場合がある)、各種のアプリケーションプログラムなどが例示される。 In this embodiment, the user terminal 120 generates the output image 300 by concealing a part of the original image 200 generated by a program running on the user terminal 120, for example. The user terminal 120 displays the output image 300 in the display area 142 of the display device 140. As a result, the output image 300 is presented to the user. According to this embodiment, a part of the output image 300 is concealed. Therefore, even if the output image 300 displayed in the display area 142 is viewed by a person other than the user who is in the vicinity of the display area 142, information leakage can be suppressed. Examples of the program that generates the original image 200 include a BIOS, an operating system (sometimes referred to as an OS), and various application programs.

ユーザ端末120としては、パーソナルコンピュータ、携帯端末などが例示される。携帯端末としては、携帯電話、スマートフォン、PDA(登録商標)、タブレット、ノートブック・コンピュータ又はラップトップ・コンピュータ、ウエアラブル・コンピュータなどが例示される。 Examples of the user terminal 120 include a personal computer and a mobile terminal. Examples of the mobile terminal include a mobile phone, a smartphone, a PDA (registered trademark), a tablet, a notebook computer or laptop computer, and a wearable computer.

本実施形態において、筐体130は、表示装置140、環境センサ150、入力装置160及び制御装置170を支持する。表示装置140、環境センサ150、入力装置160及び制御装置170のそれぞれは、その少なくとも一部が筐体130の内部に収容されてもよく、筐体130の外部に取り付けられてもよい。 In this embodiment, the housing 130 supports the display device 140, the environmental sensor 150, the input device 160, and the control device 170. At least a portion of each of the display device 140, the environmental sensor 150, the input device 160, and the control device 170 may be housed inside the housing 130, or may be attached to the outside of the housing 130.

本実施形態において、表示装置140は、各種の画像を出力する。表示装置140は、制御装置170からの指示に従って、画像を出力したり、画像の出力を停止したりしてよい。表示装置140は、制御装置170からの指示に従って、画像の明るさ又はコントラストを調整してもよい。表示装置140は、例えば、制御装置170が出力したデータに基づいて画素の動作を制御することで、制御装置170からの指示に従って、画像を出力したり、画像の出力を停止したり、画像の明るさ又はコントラストを調整したりすることができる。表示装置140としては、ディスプレイ、プロジェクタなどが例示される。 In this embodiment, the display device 140 outputs various images. The display device 140 may output an image or stop outputting an image according to instructions from the control device 170. The display device 140 may adjust the brightness or contrast of an image according to instructions from the control device 170. The display device 140 can output an image, stop outputting an image, or adjust the brightness or contrast of an image according to instructions from the control device 170, for example, by controlling the operation of pixels based on data output by the control device 170. Examples of the display device 140 include a display and a projector.

本実施形態において、表示領域142には、表示装置140の出力する画像(出力画像と称される場合がある。)が表示される。本実施形態において、表示領域142は、筐体130に配される。本実施形態において、表示領域142は、環境センサ150の少なくとも一部と略同一の面に配される。 In this embodiment, the display area 142 displays an image (sometimes referred to as an output image) output by the display device 140. In this embodiment, the display area 142 is disposed in the housing 130. In this embodiment, the display area 142 is disposed on approximately the same surface as at least a portion of the environmental sensor 150.

本実施形態において、環境センサ150は、表示領域142の周辺環境に関する各種の情報を取得する。環境センサ150は、上記の各種の情報を取得するための1以上のセンサを含んでよい。上記のセンサとしては、各種の画像を取得するセンサ、音声を取得するセンサ、明るさを検出するセンサ、温度を検出するセンサ、距離又は深度を検出するセンサ、無線信号を受信する受信機などが例示される。環境センサ150に含まれる1以上のセンサが取得又は生成した情報は、例えば、制御装置170に出力される。 In this embodiment, the environmental sensor 150 acquires various information related to the surrounding environment of the display area 142. The environmental sensor 150 may include one or more sensors for acquiring the above-mentioned various information. Examples of the above-mentioned sensors include a sensor for acquiring various images, a sensor for acquiring sound, a sensor for detecting brightness, a sensor for detecting temperature, a sensor for detecting distance or depth, a receiver for receiving wireless signals, and the like. The information acquired or generated by one or more sensors included in the environmental sensor 150 is output to the control device 170, for example.

本実施形態において、距離センサ152は、距離センサ152と、表示領域142の周辺に配された1以上の物体のそれぞれとの距離を測定する。表示領域142の周辺としては、表示領域142の視野角の範囲内の位置、表示領域142からの距離が予め定められた数値範囲である位置などが例示される。距離センサ152は、上記の各物体の点群データを取得してもよい。点群データは、三次元点群データであってもよい。 In this embodiment, the distance sensor 152 measures the distance between the distance sensor 152 and each of one or more objects arranged around the display area 142. Examples of the periphery of the display area 142 include positions within the range of the viewing angle of the display area 142, and positions whose distance from the display area 142 is within a predetermined numerical range. The distance sensor 152 may acquire point cloud data of each of the above objects. The point cloud data may be three-dimensional point cloud data.

また、表示領域142及び距離センサ152の相対的な位置関係は既知である。そこで、距離センサ152は、距離センサ152及び上記の各物体の距離と、表示領域142及び距離センサ152の相対的な位置関係とに基づいて、表示領域142及び上記の各物体との距離を導出してもよい。 The relative positional relationship between the display area 142 and the distance sensor 152 is known. Therefore, the distance sensor 152 may derive the distance between the display area 142 and each of the above-mentioned objects based on the distance between the distance sensor 152 and each of the above-mentioned objects and the relative positional relationship between the display area 142 and the distance sensor 152.

距離センサ152は、ユーザ端末120のユーザの、表示装置140又は表示領域142への近接を検出してよい。例えば、距離センサ152は、ユーザ端末120のユーザと、表示装置140又は表示領域142との距離を測定する。ユーザ端末120のユーザと、表示装置140又は表示領域142との距離が予め定められた値よりも小さくなった場合、距離センサ152は、ユーザの画像表示装置への近接を検出してよい。 The distance sensor 152 may detect the approach of the user of the user terminal 120 to the display device 140 or the display area 142. For example, the distance sensor 152 measures the distance between the user of the user terminal 120 and the display device 140 or the display area 142. When the distance between the user of the user terminal 120 and the display device 140 or the display area 142 becomes smaller than a predetermined value, the distance sensor 152 may detect the approach of the user to the image display device.

距離センサ152が上記の距離を測定する原理及び/又は手順の詳細は特に限定されない。距離センサ152としては、(i)画像を撮像するセンサ、(ii)音波、超音波、電磁波、レーザなどを利用して対象物との距離を測定するセンサなどが例示される。距離センサ152としては、ステレオカメラ、単眼カメラ深度距離計測装置(単眼デプス推定装置と称される場合がある。)、LiDAR、非接触方式の近接センサなどが例示される。上記のカメラに、魚眼レンズ、超広角レンズなどの光学部材が取り付けられてもよい。 The details of the principle and/or procedure by which the distance sensor 152 measures the above distance are not particularly limited. Examples of the distance sensor 152 include (i) a sensor that captures an image, and (ii) a sensor that measures the distance to an object using sound waves, ultrasound, electromagnetic waves, lasers, etc. Examples of the distance sensor 152 include a stereo camera, a monocular camera depth distance measurement device (sometimes referred to as a monocular depth estimation device), LiDAR, a non-contact proximity sensor, etc. Optical components such as a fisheye lens and an ultra-wide-angle lens may be attached to the above camera.

本実施形態において、カメラ154は、表示領域142の周辺の画像を撮像する。上記の画像は、静止画像であってもよく、動画像であってもよい。カメラ154の詳細は特に限定されない。カメラ154は、二次元画像を撮像するためのイメージセンサであってもよく、赤外線画像(熱画像と称される場合がある)を撮像する赤外線カメラであってもよい。カメラ154は、単眼カメラであってもよく、ステレオカメラであってもよい。カメラ154は、180度カメラであってもよく、360度カメラであってもよい。また、距離センサ152が撮像素子を備える場合、ユーザ端末120はカメラ154を備えなくてもよい。 In this embodiment, the camera 154 captures an image of the periphery of the display area 142. The image may be a still image or a moving image. The details of the camera 154 are not particularly limited. The camera 154 may be an image sensor for capturing a two-dimensional image, or an infrared camera for capturing an infrared image (sometimes called a thermal image). The camera 154 may be a monocular camera or a stereo camera. The camera 154 may be a 180-degree camera or a 360-degree camera. In addition, if the distance sensor 152 is equipped with an image sensor, the user terminal 120 may not be equipped with the camera 154.

本実施形態において、電波検知機156は、無線信号の電波を検知する。電波検知機156は、無線信号の強度を測定してもよい。無線信号としては、GPS信号、WiFi(登録商標)信号、Bluetooth(登録商標)信号などが例示される。これにより、例えば、制御装置170が検知された電波を解析することで、表示領域142の設置位置が推定され得る。 In this embodiment, the radio wave detector 156 detects radio waves of a wireless signal. The radio wave detector 156 may measure the strength of the wireless signal. Examples of wireless signals include a GPS signal, a WiFi (registered trademark) signal, and a Bluetooth (registered trademark) signal. This allows, for example, the control device 170 to analyze the detected radio waves to estimate the installation position of the display area 142.

本実施形態において、入力装置160は、ユーザ端末120のユーザからの入力を受け付ける。上記の入力としては、ユーザ端末120の操作及び/又は設定に関する入力、ユーザ端末120の上で動作する各種のプログラムの操作及び/又は設定に関する入力、当該プログラムにより実行される作業の内容に関する入力などが例示される。入力装置160は、ユーザが入力装置160に入力した情報を、制御装置170に出力する。入力装置160としては、キーボード、ポインティングデバイス、タッチパネル、カメラ、マイクなどが例示される。 In this embodiment, the input device 160 accepts input from the user of the user terminal 120. Examples of the above input include input related to the operation and/or settings of the user terminal 120, input related to the operation and/or settings of various programs running on the user terminal 120, and input related to the content of the work executed by the programs. The input device 160 outputs information input by the user to the input device 160 to the control device 170. Examples of the input device 160 include a keyboard, a pointing device, a touch panel, a camera, and a microphone.

本実施形態において、制御装置170は、ユーザ端末120を制御する。制御装置170は、ユーザ端末120における各種の情報処理を実行する。制御装置170の詳細は後述される。 In this embodiment, the control device 170 controls the user terminal 120. The control device 170 executes various information processing in the user terminal 120. Details of the control device 170 will be described later.

上記の情報処理方法は、画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成するための方法であってよい。上記の情報処理方法の各段階は、例えば、コンピュータにより実行される。 The above information processing method may be a method for generating a display image to be displayed on an image display device by concealing a part of a generated image generated by an image generating device. Each step of the above information processing method is executed by, for example, a computer.

一実施形態において、上記の方法は、例えば、画像生成装置が生成した画像である生成画像を取得する画像取得段階を有する。上記の方法は、例えば、生成画像を複数の区画に分割する分割段階を有する。上記の方法は、例えば、複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出段階を有する。上記の方法は、例えば、作業位置を特定する作業位置特定段階を有する。上記の方法において、作業位置は、生成画像の一部に配される1以上の位置又は範囲であって、(i)画像表示装置のユーザによる入力の位置若しくは範囲、及び/又は、(ii)ユーザの視線の位置若しくは範囲である。上記の方法は、例えば、価値導出段階において導出された価値と、作業位置特定段階において特定された作業位置とに基づいて、秘匿化が施される領域である対象領域を決定する対象領域決定段階を有する。 In one embodiment, the method includes, for example, an image acquisition step of acquiring a generated image, which is an image generated by an image generation device. The method includes, for example, a division step of dividing the generated image into a plurality of sections. The method includes, for example, a value derivation step of deriving the value of information contained in each section for at least a portion of the plurality of sections. The method includes, for example, a work position identification step of identifying a work position. In the method, the work position is one or more positions or ranges arranged in a portion of the generated image, and is (i) a position or range of an input by a user of the image display device, and/or (ii) a position or range of the user's line of sight. The method includes, for example, a target area determination step of determining a target area, which is an area to be concealed, based on the value derived in the value derivation step and the work position identified in the work position identification step.

他の実施形態において、上記の方法は、例えば、生成画像の一部に配される1以上の位置又は範囲であって、画像表示装置のユーザにより指定又は参照された位置又は範囲である作業位置を特定する作業位置特定段階を有する。上記の方法は、例えば、作業位置特定段階において特定された作業位置に基づいて、秘匿化が施される領域である対象領域を決定する対象領域決定段階を有する。上記の方法は、例えば、生成画像の一部に配され、作業位置を含む領域である作業領域を決定する作業領域決定段階を有する。 In another embodiment, the above method includes a work position identification step of identifying a work position, which is, for example, one or more positions or ranges located in a part of the generated image and which is a position or range specified or referenced by a user of the image display device. The above method includes, for example, a target area determination step of determining a target area, which is an area to be concealed, based on the work position identified in the work position identification step. The above method includes, for example, a work area determination step of determining a work area, which is an area located in a part of the generated image and which includes the work position.

(元画像200及び出力画像300の概要)
図2及び図3を用いて、元画像200の一部を秘匿化するためのプログラム(秘匿化プログラムと称される場合がある。)が実行されると、ウインドウ210が全画面表示される場合を例として、元画像200及び出力画像300の詳細が説明される。上述されたとおり、本実施形態において、情報漏洩抑制システム100は、(i)まず、秘匿化処理が施されていない元画像200を生成し、(ii)次に、元画像200の少なくとも一部を秘匿化して、ユーザに提示される出力画像300を生成する。出力画像300は、ユーザに提示される情報(提示情報と称される場合がある。)の少なくとも一部が秘匿化された領域(秘匿化領域と称される場合がある。)を含む。
(Outline of original image 200 and output image 300)
2 and 3, the original image 200 and the output image 300 will be described in detail, taking as an example a case where a window 210 is displayed full-screen when a program (sometimes referred to as a concealment program) for concealing a part of the original image 200 is executed. As described above, in this embodiment, the information leakage prevention system 100 (i) first generates the original image 200 that has not been subjected to concealment processing, and (ii) then conceals at least a part of the original image 200 to generate the output image 300 to be presented to the user. The output image 300 includes an area (sometimes referred to as a concealment area) in which at least a part of the information (sometimes referred to as presented information) to be presented to the user is concealed.

図2に示されるとおり、本実施形態において、元画像200は、全画面表示されたウインドウ210の画像を有する。本実施形態において、ウインドウ210は、制御領域212と、画像出力領域214とを含む。 As shown in FIG. 2, in this embodiment, the original image 200 has an image of a window 210 displayed full screen. In this embodiment, the window 210 includes a control area 212 and an image output area 214.

上述されたとおり、ウインドウ210は、秘匿化プログラムに対応する。元画像200は、秘匿化プログラムの起動が完了した後、秘匿化プログラムによる秘匿化処理が実行されていない状態において、表示領域142に表示される画面の一例を示す。 As described above, window 210 corresponds to the anonymization program. Original image 200 shows an example of a screen displayed in display area 142 after the anonymization program has been launched and in a state in which the anonymization program is not yet executing an anonymization process.

本実施形態において、制御領域212には、ウインドウ210の制御及び/又は秘匿化プログラムの制御に関する各種の情報を表示するための1以上のオブジェクトが配される。例えば、制御領域212には、ユーザが利用可能な操作(メニューと称される場合がある。)をユーザに提示するためのオブジェクト222と、秘匿化処理のON/OFFをユーザに提示するためのオブジェクト224とが配される。 In this embodiment, the control area 212 is provided with one or more objects for displaying various information related to the control of the window 210 and/or the control of the concealment program. For example, the control area 212 is provided with an object 222 for presenting the user with operations (sometimes referred to as a menu) available to the user, and an object 224 for presenting the user with ON/OFF of the concealment process.

制御領域212には、秘匿化プログラムの名称(タイトルと称される場合がある)をユーザに提示するためのオブジェクト(図示されていない。)が配されてもよく、ユーザにウインドウ210の大きさを変更させるためのオブジェクト(図示されていない。)が配されてもよく、ユーザにウインドウ210の表示又は非表示を選択させるためのオブジェクト(図示されていない。)が配されてもよい。 The control area 212 may include an object (not shown) for presenting the name of the concealed program (sometimes called the title) to the user, an object (not shown) for allowing the user to change the size of the window 210, and an object (not shown) for allowing the user to select whether to display or hide the window 210.

本実施形態において、画像出力領域214には、例えば、OSにより生成される背景画像(図示視されていない。)と、OSによりユーザに提示される情報である提示情報216と、OS及び秘匿化プログラム以外のプログラム又はファイルに対応するウインドウ230及びウインドウ240の画像とが表示される。本実施形態において、ウインドウ230は、制御領域232と、画像出力領域234と、提示情報236とを含む。本実施形態において、ウインドウ240は、制御領域242と、画像出力領域244と、提示情報246とを含む。 In this embodiment, the image output area 214 displays, for example, a background image (not shown) generated by the OS, presentation information 216 which is information presented to the user by the OS, and images of a window 230 and a window 240 corresponding to a program or file other than the OS and the concealment program. In this embodiment, the window 230 includes a control area 232, an image output area 234, and presentation information 236. In this embodiment, the window 240 includes a control area 242, an image output area 244, and presentation information 246.

本実施形態において、制御領域232には、ウインドウ230の制御及び/又はウインドウ230に対応するプログラム又はファイルの制御に関する各種の情報を表示するための1以上のオブジェクトが配される。画像出力領域234には、ウインドウ230に対応するプログラム又はファイルによりユーザに提示される情報である提示情報236が表示される。 In this embodiment, the control area 232 has one or more objects arranged therein for displaying various information relating to the control of the window 230 and/or the control of the program or file corresponding to the window 230. The image output area 234 displays presentation information 236, which is information presented to the user by the program or file corresponding to the window 230.

本実施形態において、制御領域242には、ウインドウ240の制御及び/又はウインドウ240に対応するプログラム又はファイルの制御に関する各種の情報を表示するための1以上のオブジェクトが配される。画像出力領域244には、ウインドウ230に対応するプログラム又はファイルによりユーザに提示される情報である提示情報246が表示される。 In this embodiment, the control area 242 has one or more objects arranged therein for displaying various information relating to the control of the window 240 and/or the control of the program or file corresponding to the window 240. The image output area 244 displays presentation information 246, which is information presented to the user by the program or file corresponding to the window 230.

図3に示されるとおり、本実施形態において、出力画像300は、全画面表示されたウインドウ210の画像を有する。本実施形態において、ウインドウ210は、制御領域212と、画像出力領域214とを含む。 As shown in FIG. 3, in this embodiment, the output image 300 has an image of the window 210 displayed full screen. In this embodiment, the window 210 includes a control area 212 and an image output area 214.

上述されたとおり、ウインドウ210は、秘匿化プログラムに対応する。出力画像300は、秘匿化プログラムの起動が完了した後、秘匿化プログラムによる秘匿化処理が実行されている状態において、表示領域142に表示される画面の一例を示す。 As described above, window 210 corresponds to the anonymization program. Output image 300 shows an example of a screen displayed in display area 142 when the anonymization program has completed its startup and is performing an anonymization process.

本実施形態において、制御領域212には、ウインドウ210の制御及び/又は秘匿化プログラムの制御に関する各種の情報を表示するための1以上のオブジェクトが配される。本実施形態によれば、制御領域212には、オブジェクト222及びオブジェクト224に加えて、秘匿化処理の動作モードをユーザに提示するためのオブジェクト326と、秘匿化処理の態様及び/又は強度をユーザに提示するためのオブジェクト328とが配される。 In this embodiment, the control area 212 is provided with one or more objects for displaying various information related to the control of the window 210 and/or the control of the concealment program. According to this embodiment, in addition to the objects 222 and 224, the control area 212 is provided with an object 326 for presenting the operation mode of the concealment process to the user, and an object 328 for presenting the type and/or strength of the concealment process to the user.

本実施形態において、画像出力領域214には、提示情報216の少なくとも一部を秘匿化するための1以上のオブジェクト318が配される。同様に、画像出力領域234には、提示情報236の少なくとも一部を秘匿化するための1以上のオブジェクト338が配される。また、画像出力領域244には、提示情報246の少なくとも一部を秘匿化するための1以上のオブジェクト348が配される。 In this embodiment, one or more objects 318 for concealing at least a portion of the presented information 216 are arranged in the image output area 214. Similarly, one or more objects 338 for concealing at least a portion of the presented information 236 are arranged in the image output area 234. Furthermore, one or more objects 348 for concealing at least a portion of the presented information 246 are arranged in the image output area 244.

これらのオブジェクトの画像は、元画像200の画像を秘匿化することができるものであればよく、その詳細は特に限定されない。また、上記の秘匿化の度合い(強度と称される場合がある。)は、初期設定により決定されてもよく、上述された管理者又はユーザにより決定されてもよい。これらのオブジェクトの画像の詳細は後述される。 The images of these objects are not particularly limited as long as they are capable of concealing the image of the original image 200. Furthermore, the degree of concealment (sometimes referred to as strength) may be determined by initial settings, or may be determined by the administrator or user as described above. Details of the images of these objects will be described later.

本実施形態において、出力画像300には、ユーザが元画像200に含まれる情報を閲覧するための閲覧領域360が設定される。出力画像300には、1以上の閲覧領域360が設定されてよい。閲覧領域360は、例えば、作業中のユーザが閲覧を要求する度合いが予め定められた程度を超えると推定される位置又は範囲である1以上の閲覧位置362を含むように設定される。閲覧領域360の内部及び外部の境界には、当該境界を示すためのオブジェクトが配されてもよく、当該オブジェクトが配されなくてもよい。 In this embodiment, a viewing area 360 is set in the output image 300 for the user to view information contained in the original image 200. One or more viewing areas 360 may be set in the output image 300. The viewing area 360 is set, for example, to include one or more viewing positions 362, which are positions or ranges where the degree to which the user requesting viewing while working is estimated to exceed a predetermined level. An object may be placed on the inner and outer boundaries of the viewing area 360 to indicate the boundary, or no object may be placed on the boundary.

一実施形態によれば、閲覧領域360の内部においては秘匿化処理が実行されない。これにより、ユーザは、閲覧領域360の内部に配された情報を閲覧することができる。その結果、秘匿化処理が実行されている期間中であっても、ユーザは、作業を続行することができる。 According to one embodiment, the anonymization process is not performed within the viewing area 360. This allows the user to view the information located within the viewing area 360. As a result, the user can continue working even while the anonymization process is being performed.

他の実施形態によれば、閲覧領域360の内部においても秘匿化処理が実行される。この場合において、閲覧領域360の内部における秘匿化の度合いは、閲覧領域360の外部における秘匿化の度合いよりも弱くてよい。これにより、ユーザは、閲覧領域360の内部に配された情報を閲覧することができる。一方、閲覧領域360の内部に配された情報が、表示領域142の近傍に存在するユーザ以外の人物に閲覧されることが抑制され得る。 According to another embodiment, the concealment process is also performed inside the viewing area 360. In this case, the degree of concealment inside the viewing area 360 may be weaker than the degree of concealment outside the viewing area 360. This allows the user to view the information placed inside the viewing area 360. On the other hand, the information placed inside the viewing area 360 can be prevented from being viewed by people other than the user who are present in the vicinity of the display area 142.

さらに他の実施形態によれば、ユーザの状態に応じて、閲覧領域360の内部における秘匿化処理の要否が切り替えられる。例えば、制御装置170は、カメラ154により撮像されたユーザの画像を解析して、ユーザの状態に関するイベントが発生しているか否かを判定する。上記のイベントが発生しているとが判定されていない場合、制御装置170は、上述された各種の実施形態に応じて、閲覧領域360の内部の秘匿化処理の要否を判断する。一方、上記のイベントが発生していると判定された場合、制御装置170は、閲覧領域360の内部を秘匿化することを決定する。上記のイベントとしては、ユーザが目を閉じているというイベント、サッカード(Saccade)が発生しているというイベントなどが例示される。 According to yet another embodiment, the need for concealment processing within the viewing area 360 is switched depending on the state of the user. For example, the control device 170 analyzes an image of the user captured by the camera 154 to determine whether an event related to the user's state has occurred. If it is determined that the above event has not occurred, the control device 170 determines whether or not concealment processing within the viewing area 360 is required depending on the various embodiments described above. On the other hand, if it is determined that the above event has occurred, the control device 170 decides to conceal the inside of the viewing area 360. Examples of the above event include an event in which the user has closed their eyes, an event in which a saccade has occurred, and the like.

閲覧位置362は、元画像200の一部に配される位置又は範囲であってよい。一実施形態において、閲覧位置362は、ユーザにより指定又は参照された位置又は範囲であってよい。他の実施形態において、閲覧位置362は、(i)ユーザによる入力の位置若しくは範囲、及び/又は、(ii)ユーザの視線の位置若しくは範囲であってよい。さらに他の実施形態において、閲覧位置362は、ユーザの指、手又は腕(ユーザの指等と称される場合がある。)の指し示す位置又は範囲であってよい。 The viewing position 362 may be a position or range located in a portion of the original image 200. In one embodiment, the viewing position 362 may be a position or range specified or referenced by a user. In another embodiment, the viewing position 362 may be (i) a position or range of input by a user, and/or (ii) a position or range of a user's line of sight. In yet another embodiment, the viewing position 362 may be a position or range pointed to by a user's finger, hand, or arm (which may be referred to as a user's finger, etc.).

ユーザによる入力の位置としては、ポインタ、カーソルなどの位置が例示される。ユーザによる入力の範囲としては、ポインタ、カーソルなどにより選択されている範囲が例示される。上記の入力に用いられる機器は特に限定されない。上記の機器としては、キーボード、ポインティングデバイス、マイク(音声入力)、ジェスチャ認識装置(ジェスチャ入力)などが例示される。ユーザの視線の位置又は範囲は、例えば、制御装置170が、カメラ154により撮像されたユーザの画像を解析することにより決定される。 Examples of the position of the user's input include the position of a pointer, cursor, etc. Examples of the range of the user's input include the range selected by a pointer, cursor, etc. There are no particular limitations on the device used for the above input. Examples of the above devices include a keyboard, a pointing device, a microphone (voice input), a gesture recognition device (gesture input), etc. The position or range of the user's gaze is determined, for example, by the control device 170 analyzing an image of the user captured by the camera 154.

ユーザの指等の指し示す位置は、例えば、制御装置170が、ジェスチャ認識装置により取得されたユーザの指等のデータを解析することにより決定される。ジェスチャ認識装置としては、カメラ(例えば、カメラ154である)、LiDAR(例えば、距離センサ152である)などが例示される。 The position pointed to by the user's finger or the like is determined, for example, by the control device 170 analyzing data of the user's finger or the like acquired by a gesture recognition device. Examples of gesture recognition devices include a camera (for example, camera 154) and a LiDAR (for example, distance sensor 152).

より具体的には、制御装置170は、まず、ジェスチャ認識装置により取得されたユーザの指等のデータを解析して、ユーザーの指等と、ユーザ端末120の代表点との相対的な位置関係を決定する。また、制御装置170は、上記のデータを解析して、ユーザの指等の姿勢を決定する。次に、制御装置170は、上記の相対的な位置関係と、ユーザの指等の姿勢とに基づいて、表示装置140の表示領域142において、ユーザの指、手又は腕が指し示す位置を特定する。 More specifically, the control device 170 first analyzes data of the user's fingers, etc. acquired by the gesture recognition device, and determines the relative positional relationship between the user's fingers, etc. and the representative point of the user terminal 120. The control device 170 also analyzes the above data and determines the posture of the user's fingers, etc. Next, the control device 170 identifies the position pointed to by the user's fingers, hand, or arm in the display area 142 of the display device 140, based on the above relative positional relationship and the posture of the user's fingers, etc.

ユーザの指等の指し示す範囲は、(i)上記のユーザの指、手又は腕の指し示す位置を含み、且つ、(ii)予め定められた形状及び/又は大きさを有する領域であってよい。ユーザの指等の指し示す範囲は、ユーザーの指等と、ユーザ端末120の代表点との相対的な位置関係に応じて調整されてよい。 The range pointed to by the user's finger, etc. may be an area that (i) includes the position pointed to by the user's finger, hand, or arm, and (ii) has a predetermined shape and/or size. The range pointed to by the user's finger, etc. may be adjusted according to the relative positional relationship between the user's finger, etc. and the representative point of the user terminal 120.

制御装置170が、ユーザの指等の指し示す位置又は範囲に基づいて閲覧位置362を決定する場合と、制御装置170が、ユーザの視線の位置若しくは範囲に基づいて閲覧位置362を決定する場合とを比較すると、制御装置170が、ユーザの指等の指し示す位置又は範囲に基づいて閲覧位置362を決定することにより、閲覧位置362の精度が向上する。その結果、ユーザ体験が向上する。 Comparing a case where the control device 170 determines the viewing position 362 based on the position or range pointed to by the user's finger or the like with a case where the control device 170 determines the viewing position 362 based on the position or range of the user's line of sight, the accuracy of the viewing position 362 is improved by the control device 170 determining the viewing position 362 based on the position or range pointed to by the user's finger or the like. As a result, the user experience is improved.

情報漏洩抑制システム100は、情報処理装置の一例であってよい。ユーザ端末120は、情報処理装置の一例であってよい。表示装置140は、画像表示装置の一例であってよい。環境センサ150は、近接検出部の一例であってよい。距離センサ152は、近接検出部の一例であってよい。制御装置170は、画像生成装置又は情報処理装置の一例であってよい。元画像200は、生成画像の一例であってよい。出力画像300は、表示画像の一例であってよい。オブジェクト318又はオブジェクト318が配される領域は、対象領域の一例であってよい。オブジェクト338又はオブジェクト338が配される領域は、対象領域の一例であってよい。オブジェクト348又はオブジェクト348が配される領域は、対象領域の一例であってよい。閲覧領域360は、作業領域の一例であってよい。閲覧位置362は、作業位置の一例であってよい。 The information leakage prevention system 100 may be an example of an information processing device. The user terminal 120 may be an example of an information processing device. The display device 140 may be an example of an image display device. The environment sensor 150 may be an example of a proximity detection unit. The distance sensor 152 may be an example of a proximity detection unit. The control device 170 may be an example of an image generation device or an information processing device. The original image 200 may be an example of a generated image. The output image 300 may be an example of a display image. The object 318 or the area in which the object 318 is arranged may be an example of a target area. The object 338 or the area in which the object 338 is arranged may be an example of a target area. The object 348 or the area in which the object 348 is arranged may be an example of a target area. The viewing area 360 may be an example of a work area. The viewing position 362 may be an example of a work position.

(別実施形態の一例)
本実施形態においては、ユーザ端末120が、元画像200の一部を秘匿化して、出力画像300を生成する場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、ユーザ端末120は、ユーザ端末120の外部に配された他のコンピュータと通信可能に構成され、当該他のコンピュータと協働して上述された各種の情報処理を実行してよい。例えば、制御装置170の少なくとも一部は、上記の他のコンピュータにより実現され得る。
(An example of another embodiment)
In this embodiment, the details of the information leakage prevention system 100 have been described using as an example a case in which the user terminal 120 conceals a part of the original image 200 to generate the output image 300. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, the user terminal 120 may be configured to be able to communicate with another computer arranged outside the user terminal 120, and may execute the various information processes described above in cooperation with the other computer. For example, at least a part of the control device 170 may be realized by the other computer.

本実施形態においては、表示領域142と、環境センサ150とが略同一平面上に配される場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、表示領域142と、環境センサ150との相対的な位置関係が特定可能であれば、表示領域142及び環境センサ150の少なくとも一方が、筐体130の外部に配されてよい。 In this embodiment, the details of the information leakage prevention system 100 are described using as an example a case where the display area 142 and the environmental sensor 150 are arranged on approximately the same plane. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, as long as the relative positional relationship between the display area 142 and the environmental sensor 150 can be identified, at least one of the display area 142 and the environmental sensor 150 may be arranged outside the housing 130.

本実施形態においては、画像出力領域214の一部に、上述された秘匿化用のオブジェクト318、オブジェクト338及びオブジェクト348が配され、画像出力領域214の他の一部に閲覧領域360が配される場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、画像出力領域214が、閲覧領域360の内部を除いて全体的に秘匿化され得る。なお、秘匿化用のオブジェクトは、秘匿化オブジェクトと称される場合がある。 In this embodiment, the details of the information leakage prevention system 100 have been described using as an example a case in which the above-mentioned concealment objects 318, objects 338, and objects 348 are arranged in a part of the image output area 214, and the viewing area 360 is arranged in another part of the image output area 214. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, the image output area 214 may be entirely concealed except for the inside of the viewing area 360. The concealment objects may be referred to as concealment objects.

本実施形態においては、ユーザ端末120が出力する提示情報を受領できる正当なユーザが単一である場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、ユーザ端末120が出力する提示情報を受領できる正当なユーザは複数であってもよい。この場合において、表示領域142に表示される画面には、複数のユーザのそれぞれに対応する複数の閲覧領域360が配されてよい。 In this embodiment, the details of the information leakage prevention system 100 are described using as an example a case where there is a single legitimate user who can receive the presented information output by the user terminal 120. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, there may be multiple legitimate users who can receive the presented information output by the user terminal 120. In this case, the screen displayed in the display area 142 may have multiple viewing areas 360 corresponding to each of the multiple users.

例えば、ユーザAがユーザ端末120を操作しながら、ユーザA及びユーザBが表示領域142に表示される画像を閲覧する場合がある。制御装置170は、ユーザが単一である場合と同様の手順に従って、ユーザAに対応する1以上の閲覧位置362と、ユーザBに対応する1以上の閲覧位置362とを決定する。また、制御装置170は、ユーザが単一である場合と同様の手順に従って、ユーザAに対応する1以上の閲覧領域360の範囲と、ユーザBに対応する1以上の閲覧領域360の範囲とを決定する。 For example, while user A operates user terminal 120, user A and user B may view images displayed in display area 142. Following the same procedure as when there is a single user, control device 170 determines one or more viewing positions 362 corresponding to user A and one or more viewing positions 362 corresponding to user B. Following the same procedure as when there is a single user, control device 170 also determines the range of one or more viewing areas 360 corresponding to user A and the range of one or more viewing areas 360 corresponding to user B.

ユーザA及びユーザBのそれぞれを正当なユーザとして認証するための手法としては、公知の任意の認証手法が採用され得る。制御装置170は、ユーザ端末120からの距離に応じて、正当ユーザである人物と、正当ユーザではない人物とを判別してもよい。 Any known authentication method may be used to authenticate each of user A and user B as a legitimate user. The control device 170 may determine whether a person is a legitimate user or an illegitimate user based on the distance from the user terminal 120.

本実施形態においては、秘匿化処理の機能が有効化されている間、上述された秘匿化処理が実行される場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。他の実施形態において、情報漏洩抑制システム100は、(i)秘匿化処理の機能が有効化されており、且つ、(ii)正当ユーザではない人物からの覗き見が検出されている間、上述された秘匿化処理が実行される。これにより、ユーザ体験が向上する。正当ユーザではない人物からの覗き見の検出には、公知の任意の手法が採用され得る。 In this embodiment, the details of the information leakage prevention system 100 have been described by taking as an example a case in which the above-mentioned concealment process is executed while the concealment process function is enabled. However, the information leakage prevention system 100 is not limited to this embodiment. In other embodiments, the information leakage prevention system 100 executes the above-mentioned concealment process while (i) the concealment process function is enabled and (ii) peeking by a person who is not a legitimate user is detected. This improves the user experience. Any known method may be adopted to detect peeking by a person who is not a legitimate user.

本実施形態においては、情報漏洩抑制システム100が単一の表示領域142に表示される画像により提示される情報を管理する場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、情報漏洩抑制システム100は、本実施形態に限定されない。 In this embodiment, the details of the information leakage prevention system 100 have been described using as an example a case in which the information leakage prevention system 100 manages information presented by an image displayed in a single display area 142. However, the information leakage prevention system 100 is not limited to this embodiment.

他の実施形態において、情報漏洩抑制システム100は、複数の表示領域142に表示される画像により提示される情報を管理してよい。例えば、ユーザ端末120は、複数の表示装置140又は表示領域142を備え、制御装置170は、当該複数の表示装置140又は表示領域142のそれぞれに表示される画面の生成及び/又は表示を管理する。 In another embodiment, the information leakage prevention system 100 may manage information presented by images displayed in multiple display areas 142. For example, the user terminal 120 includes multiple display devices 140 or display areas 142, and the control device 170 manages the generation and/or display of the screens displayed on each of the multiple display devices 140 or display areas 142.

より具体的には、制御装置170は、当該複数の表示装置140又は表示領域142のそれぞれの表示画面に配される1以上の秘匿化オブジェクトの色彩、模様及び/又は範囲を制御してもよく、当該複数の表示装置140又は表示領域142のそれぞれの表示画面に配される1以上の閲覧領域の範囲を制御してもよい。例えば、ユーザの視線が第1の表示領域142の内部に位置しており、第2の表示領域142にカーソル又はポインタが配されている場合、第1の表示領域142の内部に、1以上の第1の閲覧領域が配され、第2の表示領域142の内部に、1以上の第2の閲覧領域が配される。これにより、例えば、複数の表示装置140又は表示領域142のそれぞれに、閲覧領域の配された画面が表示され得る。 More specifically, the control device 170 may control the color, pattern, and/or range of one or more concealment objects arranged on the display screen of each of the multiple display devices 140 or display areas 142, and may control the range of one or more viewing areas arranged on the display screen of each of the multiple display devices 140 or display areas 142. For example, when the user's line of sight is located inside the first display area 142 and a cursor or pointer is arranged in the second display area 142, one or more first viewing areas are arranged inside the first display area 142, and one or more second viewing areas are arranged inside the second display area 142. Thereby, for example, a screen in which the viewing areas are arranged may be displayed on each of the multiple display devices 140 or display areas 142.

オブジェクトの範囲としては、表示領域142における当該オブジェクトの位置、当該オブジェクトの大きさ、及び/又は、当該オブジェクトの形状が例示される。閲覧領域の範囲としては、表示領域142における当該閲覧領域の位置、当該閲覧領域の大きさ、及び/又は、当該閲覧領域の形状が例示される。 Examples of the range of an object include the position of the object in display area 142, the size of the object, and/or the shape of the object. Examples of the range of a viewing area include the position of the viewing area in display area 142, the size of the viewing area, and/or the shape of the viewing area.

さらに他の実施形態において、制御装置170は、複数の表示装置140又は表示領域142のそれぞれにおける情報の秘匿化の態様を制御してもよい。制御装置170は、例えば、その内部にユーザの視線の位置及び/又は範囲が配される表示装置又は表示領域における情報の秘匿化の態様と、その内部にユーザの視線の位置及び/又は範囲が配されていない表示装置又は表示領域における情報の秘匿化の態様とが異なるように、情報の秘匿化の態様を制御する。制御装置170は、その内部にユーザの視線の位置及び/又は範囲が配される表示装置又は表示領域における情報の秘匿化の強度が、その内部にユーザの視線の位置及び/又は範囲が配されていない表示装置又は表示領域における情報の秘匿化の強度よりも大きくなるように、情報の秘匿化の態様を制御してよい。 In yet another embodiment, the control device 170 may control the manner of information concealment in each of the multiple display devices 140 or display areas 142. The control device 170 controls the manner of information concealment, for example, so that the manner of information concealment in a display device or display area in which the position and/or range of the user's gaze is located differs from the manner of information concealment in a display device or display area in which the position and/or range of the user's gaze is not located. The control device 170 may control the manner of information concealment so that the strength of information concealment in a display device or display area in which the position and/or range of the user's gaze is located is greater than the strength of information concealment in a display device or display area in which the position and/or range of the user's gaze is not located.

(秘匿化処理の概要)
図4は、制御装置170における情報処理の一例を概略的に示す。具体的には、図4を用いて、上述された秘匿化処理の一例が説明される。本実施形態によれば、まず、ステップ422(ステップがSと省略される場合がある。)において、制御装置170は、上述された秘匿化プログラムを起動させる。
(Overview of concealment processing)
Fig. 4 shows an example of information processing in the control device 170. Specifically, an example of the above-mentioned anonymization processing will be described with reference to Fig. 4. According to this embodiment, first, in step 422 (step may be abbreviated as S), the control device 170 starts the above-mentioned anonymization program.

これにより、秘匿化プログラムに対応するウインドウ210が最前面において全画面表示となる。秘匿化プログラムの起動直後の時点においてウインドウ210に表示される画像は、例えば、秘匿化プログラムに関する設定に基づいて生成される。 As a result, the window 210 corresponding to the anonymization program is displayed full screen in the foreground. The image displayed in the window 210 immediately after the anonymization program is started is generated, for example, based on the settings related to the anonymization program.

(a)秘匿化プログラムに関する設定が、起動直後において、予め定められた画像又は予め定められたアルゴリズムにより生成又は選択される画像を表示させることを示している場合、制御装置170は、表示領域142に当該画像を表示させる。(b)秘匿化プログラムに関する設定が、起動直後における秘匿化処理が不要であることを示している場合、制御装置170は、例えば、表示領域142に元画像200を表示させることを決定する。(c)秘匿化プログラムに関する設定が、起動直後における秘匿化処理が必要であることを示している場合、制御装置170は、例えば、秘匿化プログラムに関する設定に従って、元画像200の少なくとも一部を秘匿化することを決定する。制御装置170は、例えば、表示領域142に出力画像300を表示させることを決定する。この場合、秘匿化処理の詳細(例えば、秘匿化の対象、態様などである。)は、上述された設定に基づいて決定されてよい。 (a) If the settings related to the anonymization program indicate that a predetermined image or an image generated or selected by a predetermined algorithm is to be displayed immediately after startup, the control device 170 displays the image in the display area 142. (b) If the settings related to the anonymization program indicate that anonymization processing is not necessary immediately after startup, the control device 170, for example, determines to display the original image 200 in the display area 142. (c) If the settings related to the anonymization program indicate that anonymization processing is necessary immediately after startup, the control device 170, for example, determines to anonymize at least a part of the original image 200 according to the settings related to the anonymization program. The control device 170, for example, determines to display the output image 300 in the display area 142. In this case, the details of the anonymization processing (for example, the target and manner of anonymization, etc.) may be determined based on the settings described above.

一実施位形態において、秘匿化プログラムの起動処理は、ユーザ端末120の起動時に自動的に実行される。他の実施形態において、秘匿化プログラムの起動処理は、ユーザの指示に応じて実行される。 In one embodiment, the anonymization program startup process is executed automatically when the user terminal 120 is started. In another embodiment, the anonymization program startup process is executed in response to a user instruction.

さらに他の実施形態において、ユーザ端末120が予め定められたエリアの内部に配されていることが確認されなかった場合に、秘匿化プログラムの起動処理が自動的に実行されてもよい。予め定められたエリアとしては、ユーザ端末120の管理者によりユーザ端末120の利用が許可されたエリア、ユーザの所属する団体が使用する室内、ユーザのオフィス、ユーザの自宅などが例示される。ユーザ端末120が予め定められたエリアの内部に配されているか否かは、カメラ154が撮像した表示領域142の周囲の画像に基づいて判断されてもよく、電波検知機156が検知した無線信号に含まれる情報に基づいて判断されてもよい。 In yet another embodiment, if it is not confirmed that the user terminal 120 is located within a predetermined area, the start-up process of the concealment program may be automatically executed. Examples of predetermined areas include an area in which the administrator of the user terminal 120 has permission to use the user terminal 120, a room used by an organization to which the user belongs, the user's office, the user's home, and the like. Whether or not the user terminal 120 is located within a predetermined area may be determined based on an image of the surroundings of the display area 142 captured by the camera 154, or may be determined based on information contained in a wireless signal detected by the radio wave detector 156.

次に、S424において、制御装置170は、秘匿化の対象を決定する。例えば、制御装置170は、秘匿化の対象に関する動作モードを決定する。秘匿化の対象に関する動作モードとしては、(a)原則として秘匿化処理が実行され、ユーザの作業に必要と推定される領域には例外的に秘匿化処理が実行されないモード(第1モードと称される場合がある)、(b)原則として秘匿化処理が実行されず、表示領域142の近傍に存在するユーザ以外の人物が閲覧していると推定される領域には例外的に秘匿化処理が実行されるモード(第2モードと称される場合がある)などが例示される。 Next, in S424, the control device 170 determines the target of anonymization. For example, the control device 170 determines an operation mode related to the target of anonymization. Examples of operation modes related to the target of anonymization include (a) a mode in which anonymization is performed in principle, and an exception is not performed on an area estimated to be necessary for the user's work (sometimes referred to as a first mode), and (b) a mode in which anonymization is not performed in principle, and an exception is performed on an area estimated to be viewed by a person other than the user near the display area 142 (sometimes referred to as a second mode).

本実施形態においては、情報漏洩抑制システム100の理解を容易にすることを目的として、制御装置170が第1モードで動作する場合を例として、情報漏洩抑制システム100の詳細が説明される。制御装置170は、例えば、管理者またはユーザからの指示に応じて、秘匿化の対象に関する動作モードを変更可能に構成され得る。 In this embodiment, in order to facilitate understanding of the information leakage prevention system 100, the details of the information leakage prevention system 100 are described using an example in which the control device 170 operates in the first mode. The control device 170 can be configured to be able to change the operating mode related to the object of concealment, for example, in response to an instruction from an administrator or a user.

その後、制御装置170は、表示領域142の表示画面を更新するための画像を生成するための処理を実行する。例えば、まず、S432において、制御装置170は、元画像200を生成する。制御装置170は、例えば、OS、及び/又は、秘匿化プログラム以外のアプリケーションプログラムからの出力に基づいて、元画像200を生成する。 Then, the control device 170 executes a process for generating an image for updating the display screen of the display area 142. For example, first, in S432, the control device 170 generates the original image 200. The control device 170 generates the original image 200 based on, for example, output from the OS and/or an application program other than the concealment program.

次に、S434において、制御装置170は、元画像200を解析して、元画像200に含まれる1以上の提示情報を抽出する。提示情報としては、文字列、絵、図、表、写真及び動画、並びに、これらの一部からなる群から選択される少なくとも1つが例示される。制御装置170は、元画像200において当該1以上の提示情報のそれぞれが占める範囲を示す情報と、当該1以上の提示情報のそれぞれの価値を示す情報とを対応付けて格納するデータベース(価値マップと称される場合がある。)を生成する。価値マップの詳細は後述される。 Next, in S434, the control device 170 analyzes the original image 200 and extracts one or more pieces of presentation information contained in the original image 200. Examples of the presentation information include at least one selected from a group consisting of a character string, a picture, a diagram, a table, a photograph, and a video, as well as some of these. The control device 170 generates a database (sometimes referred to as a value map) that stores information indicating the range that each of the one or more pieces of presentation information occupies in the original image 200 and information indicating the value of each of the one or more pieces of presentation information in association with each other. Details of the value map will be described later.

次に、S436において、制御装置170は、上述された閲覧領域360の範囲を決定する。一実施形態において、制御装置170は、例えば、ユーザにより指定又は参照された位置又は範囲に基づいて、閲覧領域360の範囲を決定する。他の実施形態において、制御装置170は、例えば、ユーザの視線及び/又は操作を解析することで、閲覧領域360の範囲を決定する。閲覧領域360の範囲の決定手順の詳細は後述される。 Next, in S436, the control device 170 determines the extent of the viewing area 360 described above. In one embodiment, the control device 170 determines the extent of the viewing area 360 based on, for example, a position or range specified or referenced by the user. In another embodiment, the control device 170 determines the extent of the viewing area 360 by, for example, analyzing the user's line of sight and/or operation. Details of the procedure for determining the extent of the viewing area 360 will be described later.

制御装置170は、例えば、ユーザが使用する任意のデバイスから、ユーザが当該デバイスを介して指定した閲覧位置362を示す情報を取得する。これにより、制御装置170は、ユーザにより指定された位置又は範囲を決定することができる。ユーザの操作を解析することで決定された閲覧位置362又は閲覧領域360の範囲は、ユーザにより指定された位置又は範囲の一例であってよい。 The control device 170, for example, acquires information indicating the viewing position 362 specified by the user via any device used by the user. This allows the control device 170 to determine the position or range specified by the user. The viewing position 362 or the range of the viewing area 360 determined by analyzing the user's operation may be an example of the position or range specified by the user.

制御装置170は、例えば、環境センサ150から、ユーザの動作、音声及び/又は視線を示す情報を取得する。制御装置170は、ユーザの動作、音声及び/又は視線に基づいて閲覧位置362を推定する。これにより、制御装置170は、ユーザにより参照された位置又は範囲を決定することができる。ユーザの視線を解析することで決定された閲覧位置362又は閲覧領域360の範囲は、ユーザにより参照された位置又は範囲の一例であってよい。 The control device 170 acquires information indicating the user's movements, voice, and/or line of sight, for example, from the environmental sensor 150. The control device 170 estimates the viewing position 362 based on the user's movements, voice, and/or line of sight. This allows the control device 170 to determine the position or range referenced by the user. The viewing position 362 or the range of the viewing area 360 determined by analyzing the user's line of sight may be an example of the position or range referenced by the user.

次に、S438において、制御装置170は、上述された秘匿化領域の範囲を決定する。上述されたとおり、ユーザは、秘匿化領域の内部に配された提示情報を閲覧することができない。 Next, in S438, the control device 170 determines the extent of the concealment area described above. As described above, the user cannot view the presented information located inside the concealment area.

一実施形態において、制御装置170は、閲覧領域360の範囲に基づいて、秘匿化領域の範囲を決定する。制御装置170は、例えば、閲覧領域360の外側の全部又は一部を秘匿化領域することを決定する。制御装置170は、閲覧領域360の内部に秘匿化領域を設けないことを決定してもよい。他の実施形態において、制御装置170は、価値マップに基づいて、秘匿化領域の範囲を決定する。制御装置170は、例えば、予め定められた基準を超える価値を有する情報が秘匿化されるように秘匿化領域の範囲を決定する。さらに他の実施形態において、制御装置170は、閲覧領域360の範囲と、価値マップとに基づいて、秘匿化領域の範囲を決定する。制御装置170は、例えば、閲覧領域360の内側において秘匿化領域の範囲を決定するための第1基準と、閲覧領域360の外側において秘匿化領域の範囲を決定するための第2基準とを用いて、各基準を超える価値を有する情報が秘匿化されるように秘匿化領域の範囲を決定する。 In one embodiment, the control device 170 determines the range of the anonymized area based on the range of the viewing area 360. The control device 170, for example, determines that all or part of the outside of the viewing area 360 is to be anonymized. The control device 170 may determine that no anonymized area is provided inside the viewing area 360. In another embodiment, the control device 170 determines the range of the anonymized area based on a value map. The control device 170 determines the range of the anonymized area, for example, so that information having a value exceeding a predetermined standard is anonymized. In yet another embodiment, the control device 170 determines the range of the anonymized area based on the range of the viewing area 360 and the value map. The control device 170 determines the range of the anonymized area based on, for example, a first criterion for determining the range of the anonymized area inside the viewing area 360 and a second criterion for determining the range of the anonymized area outside the viewing area 360, so that information having a value exceeding each standard is anonymized.

また、制御装置170は、1以上の秘匿化領域のそれぞれについて、秘匿化の態様を決定する。秘匿化の態様としては、秘匿化処理の種類(秘匿化方式と称される場合がある。)、秘匿化処理の強度などが例示される。制御装置170は、秘匿化処理の態様を調整することで、提示情報を見えなくしたり、提示情報を見えにくくしたりすることができる。 The control device 170 also determines the mode of concealment for each of the one or more concealment regions. Examples of the mode of concealment include the type of concealment processing (sometimes referred to as the concealment method) and the strength of the concealment processing. The control device 170 can make the presented information invisible or difficult to see by adjusting the mode of the concealment processing.

秘匿化の種類としては、他の画像への変換処理、他の画像の重畳処理、他の画像への変換処理としては、モザイク処理、ぼかし処理、混合処理などが例示される。秘匿化処理の強度としては、他の画像の混合の度合い、他の画像の重畳の度合い、重畳される画像の透過率、提示情報の表示サイズ(例えば、文字の大きさである)、提示情報のコントラスト、提示情報及び背景の色彩、画面又は画面の一部の明るさなどが例示される。他の画像の混合の度合いとしては、モザイクの細かさ、ぼかしの強さなどが例示される。 Examples of types of concealment include conversion to another image and superimposition of another image. Examples of conversion to another image include mosaic processing, blurring, and mixing. Examples of the strength of the concealment process include the degree of mixing of another image, the degree of superimposition of another image, the transmittance of the superimposed image, the display size of the presented information (e.g., the size of characters), the contrast of the presented information, the color of the presented information and background, and the brightness of the screen or part of the screen. Examples of the degree of mixing of another image include the fineness of the mosaic and the strength of blurring.

例えば、図3に関連して説明された出力画像300によれば、秘匿化領域に、オブジェクト318、オブジェクト338及びオブジェクト348が配される。これにより、図2に関連して説明された元画像200の提示情報216、提示情報236及び提示情報246が秘匿化される。各オブジェクトにより秘匿化される提示情報が、各オブジェクトに対応する提示情報と称される場合がある。 For example, in the output image 300 described in relation to FIG. 3, objects 318, 338, and 348 are arranged in the concealed region. As a result, the presentation information 216, 236, and 246 of the original image 200 described in relation to FIG. 2 are concealed. The presentation information that is concealed by each object may be referred to as the presentation information corresponding to each object.

上述されたとおり、出力画像300における各オブジェクトの画像としては、例えば、各オブジェクトに対応する提示情報の画像をモザイク処理して得られる画像(モザイク処理された画像と称される場合がある。)が用いられる。出力画像300の各オブジェクトの位置に、上記のモザイク処理された画像が配置されることで、重要な提示情報が秘匿化された出力画像300が得られる。 As described above, the image of each object in the output image 300 is, for example, an image obtained by mosaic processing the image of the presentation information corresponding to each object (sometimes referred to as a mosaic processed image). By arranging the above-mentioned mosaic processed image at the position of each object in the output image 300, an output image 300 in which important presentation information is concealed is obtained.

次に、S442において、制御装置170は、元画像200の秘匿化領域に秘匿化処理を施して、出力画像300を生成する。また、S444において、制御装置170は、表示装置140を制御して、表示領域142に出力画像300を表示させる。制御装置170は、S432~S444の処理を繰り返す。これにより、秘匿化処理が実行される。 Next, in S442, the control device 170 applies a concealment process to the concealed area of the original image 200 to generate the output image 300. In addition, in S444, the control device 170 controls the display device 140 to display the output image 300 in the display area 142. The control device 170 repeats the processes of S432 to S444. This completes the concealment process.

図5は、制御装置170の内部構成の一例を概略的に示す。本実施形態において、制御装置170は、例えば、設定情報格納部520と、プログラム制御部532と、ウインドウ制御部534と、入力制御部540と、出力制御部550とを備える。本実施形態において、出力制御部550は、元画像生成部560と、ウインドウ情報取得部572と、視線情報取得部574と、操作情報取得部576と、画像処理部580とを有する。本実施形態において、画像処理部580は、価値マップ生成部582と、秘匿化処理部584と、漏洩防止支援部586と、出力画像生成部588とを含む。 Figure 5 shows an example of the internal configuration of the control device 170. In this embodiment, the control device 170 includes, for example, a setting information storage unit 520, a program control unit 532, a window control unit 534, an input control unit 540, and an output control unit 550. In this embodiment, the output control unit 550 includes an original image generation unit 560, a window information acquisition unit 572, a line of sight information acquisition unit 574, an operation information acquisition unit 576, and an image processing unit 580. In this embodiment, the image processing unit 580 includes a value map generation unit 582, a concealment processing unit 584, a leakage prevention support unit 586, and an output image generation unit 588.

本実施形態において、設定情報格納部520は、情報漏洩抑制システム100及び/又はユーザ端末120の各種の設定に関する情報(設定情報と称される場合がある。)を格納する。設定情報は、例えば、秘匿化プログラムの設定に関する情報を含む。秘匿化プログラムの設定としては、(i)秘匿化プログラムによる秘匿化の要否又は対象、及び/又は、当該秘匿化の態様に関する設定、(ii)秘匿化プログラムの起動直後の処理に関する各種の設定などが例示される。 In this embodiment, the setting information storage unit 520 stores information (sometimes referred to as setting information) relating to various settings of the information leakage prevention system 100 and/or the user terminal 120. The setting information includes, for example, information relating to the settings of the anonymization program. Examples of the settings of the anonymization program include (i) settings relating to the necessity or target of anonymization by the anonymization program and/or the mode of the anonymization, and (ii) various settings relating to the processing immediately after the anonymization program is started.

本実施形態において、プログラム制御部532は、ユーザ端末120の上で動作する各種のプログラムを制御する。プログラム制御部532は、上記のプログラムの起動処理を制御してもよく、上記のプログラムの動作を制御してもよく、上記のプログラムの終了処理を制御してもよい。 In this embodiment, the program control unit 532 controls various programs that run on the user terminal 120. The program control unit 532 may control the startup process of the above programs, may control the operation of the above programs, or may control the termination process of the above programs.

本実施形態において、ウインドウ制御部534は、ユーザ端末120の上で動作する各種のプログラムに対応するウインドウに関する各種の制御を実行する。ウインドウ制御部534は、例えば、上記のウインドウに関する各種の情報(ウインドウ情報と称される場合がある。)をウインドウ情報取得部572に出力する。ウインドウ情報としては、画面における当該ウインドウの範囲(例えば、位置、形状、大きさなどである)を示す情報、当該ウインドウに配される各種のオブジェクトに関する情報、当該ウインドウに付与されたフラグの種類を示す情報などが例示される。上記のフラグとしては、コピー不可、スクリーンショット不可、キャプチャー不可などが例示される。 In this embodiment, the window control unit 534 executes various controls related to windows corresponding to various programs running on the user terminal 120. The window control unit 534 outputs, for example, various information related to the above-mentioned windows (sometimes referred to as window information) to the window information acquisition unit 572. Examples of the window information include information indicating the range of the window on the screen (e.g., position, shape, size, etc.), information regarding various objects arranged in the window, and information indicating the type of flag assigned to the window. Examples of the above-mentioned flags include no copying, no screenshots, and no capture.

本実施形態において、入力制御部540は、ユーザ端末120に入力される各種の情報を制御する。一実施形態において、入力制御部540は、環境センサ150が出力するデータを取得する。入力制御部540は、例えば、カメラ154が出力する画像データを取得し、当該画像データを視線情報取得部574に出力する。 In this embodiment, the input control unit 540 controls various types of information input to the user terminal 120. In one embodiment, the input control unit 540 acquires data output by the environmental sensor 150. The input control unit 540 acquires, for example, image data output by the camera 154, and outputs the image data to the line of sight information acquisition unit 574.

他の実施形態において、入力制御部540は、入力装置160の動作を制御する。入力制御部540は、例えば、ユーザが入力装置160に入力した各種の指示を受け付ける。上記の指示としては、ユーザ端末120の操作に関する指示、ユーザ端末120の上で動作する各種のプログラムに対する指示などが例示される。これにより、入力制御部540は、例えば、ユーザによる入力の位置若しくは範囲を特定することができる。 In another embodiment, the input control unit 540 controls the operation of the input device 160. The input control unit 540, for example, accepts various instructions input by the user to the input device 160. Examples of the above instructions include instructions regarding the operation of the user terminal 120, instructions for various programs running on the user terminal 120, and the like. This allows the input control unit 540 to, for example, identify the position or range of the input by the user.

入力制御部540は、例えば、上記の指示を操作情報取得部576に出力する。入力制御部540は、ユーザによる入力の位置若しくは範囲を示す情報を操作情報取得部576に出力してもよい。入力制御部540は、ユーザが入力装置160に入力した内容を示す情報を操作情報取得部576に出力してもよい。 The input control unit 540, for example, outputs the above instruction to the operation information acquisition unit 576. The input control unit 540 may output information indicating the position or range of the input by the user to the operation information acquisition unit 576. The input control unit 540 may output information indicating the content input by the user to the input device 160 to the operation information acquisition unit 576.

本実施形態において、出力制御部550は、ユーザに提示される情報の出力を制御する。一実施形態において、出力制御部550は、画像情報の出力を制御する。他の実施形態において、出力制御部550は、音声情報の出力を制御する。 In this embodiment, the output control unit 550 controls the output of information presented to the user. In one embodiment, the output control unit 550 controls the output of image information. In another embodiment, the output control unit 550 controls the output of audio information.

本実施形態において、元画像生成部560は、元画像200を生成する。本実施形態において、ウインドウ情報取得部572は、ウインドウ制御部534から、元画像200に含まれる1以上のウインドウのそれぞれに関するウインドウ情報を取得する。 In this embodiment, the original image generating unit 560 generates the original image 200. In this embodiment, the window information acquiring unit 572 acquires window information relating to each of one or more windows included in the original image 200 from the window control unit 534.

本実施形態において、視線情報取得部574は、入力制御部540から、カメラ154が撮像したユーザの画像を取得する。視線情報取得部574は、ユーザの画像を解析して、元画像200における視線の位置及び/又は範囲を特定する。視線の位置及び/又は範囲を特定する手法としては、任意の公知の手法が採用され得る。 In this embodiment, the gaze information acquisition unit 574 acquires an image of the user captured by the camera 154 from the input control unit 540. The gaze information acquisition unit 574 analyzes the image of the user to identify the position and/or range of the gaze in the original image 200. Any known method may be used as a method for identifying the position and/or range of the gaze.

一実施形態において、視線情報取得部574は、画像を解析して、ユーザの顔面の法線ベクトルを特定する。視線情報取得部574は、ユーザの顔面の法線ベクトルを用いて、元画像200におけるユーザの視線の位置及び/又は範囲を推定する。他の実施形態において、視線情報取得部574は、画像を解析して、ユーザの黒目の法線ベクトルを特定する。視線情報取得部574は、ユーザの黒目の法線ベクトルを用いて、元画像200におけるユーザの視線の位置及び/又は範囲を推定する。 In one embodiment, the gaze information acquisition unit 574 analyzes the image to identify a normal vector of the user's face. The gaze information acquisition unit 574 uses the normal vector of the user's face to estimate the position and/or range of the user's gaze in the original image 200. In another embodiment, the gaze information acquisition unit 574 analyzes the image to identify a normal vector of the user's iris. The gaze information acquisition unit 574 uses the normal vector of the user's iris to estimate the position and/or range of the user's gaze in the original image 200.

本実施形態において、操作情報取得部576は、入力制御部540から、ユーザが入力装置160に入力した各種の情報(操作情報と称される場合がある。)を取得する。上述されたとおり、操作情報としては、(i)ユーザが入力装置160に入力した各種の指示又は内容を示す情報、(ii)ユーザによる入力の位置若しくは範囲を示す情報などが例示される。 In this embodiment, the operation information acquisition unit 576 acquires various information (sometimes referred to as operation information) input by the user to the input device 160 from the input control unit 540. As described above, examples of the operation information include (i) information indicating various instructions or contents input by the user to the input device 160, and (ii) information indicating the position or range of the input by the user.

本実施形態において、画像処理部580は、元画像生成部560が生成する元画像200の一部を秘匿化して、表示装置140の表示領域142に表示される出力画像300を生成する。画像処理部580は、表示装置140の動作を制御して、表示領域142に出力画像300を表示させてよい。 In this embodiment, the image processing unit 580 conceals a portion of the original image 200 generated by the original image generation unit 560, and generates an output image 300 to be displayed in the display area 142 of the display device 140. The image processing unit 580 may control the operation of the display device 140 to display the output image 300 in the display area 142.

本実施形態において、価値マップ生成部582は、上述された価値マップを生成する。価値マップ生成部582の詳細は後述される。本実施形態において、秘匿化処理部584は、上述された秘匿化処理を実行する。秘匿化処理部584の詳細は後述される。 In this embodiment, the value map generator 582 generates the value map described above. Details of the value map generator 582 will be described later. In this embodiment, the anonymization processor 584 executes the anonymization process described above. Details of the anonymization processor 584 will be described later.

漏洩防止支援部586は、情報漏洩を防止するための各種の処理(支援処理と称される場合がある。)を実行する。支援処理としては、(a)情報漏洩を防止するための特定の行動をユーザに促すための処理、(b)情報漏洩を防止するための特定の情報処理を制御装置170に実行させるための処理、(c)制御装置170による秘匿化処理の状況を示す音声を出力する処理などが例示される。 The leak prevention support unit 586 executes various processes (sometimes referred to as support processes) for preventing information leaks. Examples of support processes include (a) a process for encouraging the user to take a specific action for preventing information leaks, (b) a process for causing the control device 170 to execute a specific information process for preventing information leaks, and (c) a process for outputting a sound indicating the status of the concealment process by the control device 170.

特定の行動としては、ユーザ端末120の物理的な位置及び/又は姿勢を変更することが例示される。例えば、ユーザは、ユーザ端末120を時計回り又は反時計回りに回転させることでユーザ端末120の物理的な姿勢を変更することができる。特定の情報処理としては、(i)表示領域142における閲覧領域360の位置、形状及び/又は大きさを変更するための処理、(ii)ユーザからの入力が検出されない期間の長さが予め定められた値を超えた場合に、秘匿化の対象及び/又は態様を変更するための処理、(iii)ユーザ端末120が複数の表示領域142を備える場合に、一の表示領域142と、他の表示領域142との間で、秘匿化の対象及び/又は態様を変更するための処理などが例示される。 The specific action is, for example, changing the physical position and/or attitude of the user terminal 120. For example, the user can change the physical attitude of the user terminal 120 by rotating the user terminal 120 clockwise or counterclockwise. The specific information processing is, for example, (i) a process for changing the position, shape, and/or size of the viewing area 360 in the display area 142, (ii) a process for changing the target and/or state of anonymization when the length of the period during which no input from the user is detected exceeds a predetermined value, and (iii) a process for changing the target and/or state of anonymization between one display area 142 and another display area 142 when the user terminal 120 has multiple display areas 142.

一実施形態において、漏洩防止支援部586は、カメラ154が撮像した画像を解析して、表示領域142の周囲に2以上の人物が存在するか否かを判定する。例えば、ユーザの背後に他の人物が存在するであっても、ユーザがユーザ端末120を回転させることで、当該人物による表示領域142の閲覧が困難になり得る。そこで、表示領域142の周囲に2以上の人物が存在すると判定された場合、漏洩防止支援部586は、ユーザに、ユーザ端末120の向き(例えば、表示領域142の法線ベクトルの向きである。)の変更を促すための処理を実行する。例えば、漏洩防止支援部586は、出力画像生成部588を制御して、出力画像生成部588に、ユーザ端末120の回転方向を示唆するための画像を生成及び出力させる。 In one embodiment, the leak prevention support unit 586 analyzes the image captured by the camera 154 to determine whether or not there are two or more people around the display area 142. For example, even if there is another person behind the user, the user may rotate the user terminal 120, making it difficult for that person to view the display area 142. Therefore, when it is determined that there are two or more people around the display area 142, the leak prevention support unit 586 executes a process to prompt the user to change the orientation of the user terminal 120 (e.g., the orientation of the normal vector of the display area 142). For example, the leak prevention support unit 586 controls the output image generation unit 588 to generate and output an image suggesting the rotation direction of the user terminal 120.

他の実施形態において、漏洩防止支援部586は、閲覧領域360の範囲を自動的に調整する。閲覧領域360の範囲としては、表示領域142における閲覧領域360の位置、形状及び/又は大きさが例示される。例えば、ユーザの背後に他の人物が存在する場合であっても、表示領域142の中央近傍への当該他の人物の視線は、当該ユーザの身体によって遮られる。そのため、上記の他の人物は、表示領域142の中央近傍に配された提示情報を閲覧することができない。そこで、例えば、閲覧領域360が表示領域142の端部に配されている場合、漏洩防止支援部586は、出力画像生成部588を制御して、閲覧領域360の内部に配されている情報を、表示領域142の中央近傍に移動させる。これにより、ユーザの視線が誘導され得る。 In another embodiment, the leakage prevention support unit 586 automatically adjusts the range of the viewing area 360. Examples of the range of the viewing area 360 include the position, shape, and/or size of the viewing area 360 in the display area 142. For example, even if there is another person behind the user, the line of sight of the other person to the vicinity of the center of the display area 142 is blocked by the body of the user. Therefore, the other person cannot view the presented information arranged near the center of the display area 142. Therefore, for example, when the viewing area 360 is arranged at the edge of the display area 142, the leakage prevention support unit 586 controls the output image generation unit 588 to move the information arranged inside the viewing area 360 to the vicinity of the center of the display area 142. This can guide the user's line of sight.

さらに他の実施形態において、入力制御部540においてユーザからの入力が検出されない期間の長さが予め定められた値を超えた場合、漏洩防止支援部586は、閲覧領域360の設定を解除することを決定する。これにより、秘匿化の対象が変更される。また、漏洩防止支援部586は、出力画像生成部588を制御して、表示領域142に表示される画面を更新する。更新後の画面においては閲覧領域360が存在しないので、表示領域142に配された全ての提示情報が自動的に秘匿化され得る。なお、提示情報の少なくとも一部(例えば、後述される価値の高い提示情報である。)が自動的に秘匿化されてもよい。 In yet another embodiment, when the length of the period during which the input control unit 540 does not detect any input from the user exceeds a predetermined value, the leak prevention support unit 586 decides to cancel the setting of the viewing area 360. This changes the target of concealment. The leak prevention support unit 586 also controls the output image generation unit 588 to update the screen displayed in the display area 142. Since the viewing area 360 does not exist on the updated screen, all of the presented information arranged in the display area 142 can be automatically concealed. Note that at least a portion of the presented information (for example, high-value presented information described below) may be automatically concealed.

さらに他の実施形態において、ユーザ端末120が複数の表示領域142を備える場合、漏洩防止支援部586は、メインディスプレイ以外のディスプレイ(サブディスプレイと称される場合がある。)については、閲覧領域360を設定しないことを決定する。これにより、サブディスプレイに表示される提示情報の少なくとも一部(例えば、後述される価値の高い提示情報である。)が自動的に秘匿化され得る。 In yet another embodiment, when the user terminal 120 has multiple display areas 142, the leak prevention support unit 586 decides not to set a viewing area 360 for displays other than the main display (sometimes referred to as sub-displays). This allows at least a portion of the presented information (e.g., high-value presented information, which will be described later) displayed on the sub-display to be automatically concealed.

例えば、制御装置170が、ユーザ端末120の筐体130に組み込まれたディスプレイと、ユーザ端末120に接続されたプロジェクタとに画像を出力する場合、ディスプレイに出力される画像には閲覧領域360が設定され、プロジェクタに出力される画像には閲覧領域360が設定されない。これにより、例えば、ディスプレイに表示される画像において、閲覧領域360の内部に配される提示情報は秘匿化されない。一方、プロジェクタがスクリーンに投影する画像においては、例えば、全ての提示情報が秘匿化される。 For example, when the control device 170 outputs an image to a display built into the housing 130 of the user terminal 120 and to a projector connected to the user terminal 120, a viewing area 360 is set in the image output to the display, and a viewing area 360 is not set in the image output to the projector. As a result, for example, in the image displayed on the display, the presented information arranged inside the viewing area 360 is not concealed. On the other hand, for example, in the image projected onto the screen by the projector, all presented information is concealed.

さらに他の実施形態において、ユーザ端末120が複数の表示領域142を備える場合、漏洩防止支援部586は、複数の表示領域142のそれぞれについて、ユーザからの入力が検出の有無を監視する。少なくとも1つの表示領域142について、ユーザからの入力が検出されない期間の長さが予め定められた値を超えた場合、漏洩防止支援部586は、上記の表示領域142における閲覧領域360の設定を解除することを決定する。また、漏洩防止支援部586は、上記の表示領域142に表示される画面を更新して、秘匿化処理が施された画面を表示領域142に表示させる。これにより、例えば、比較的長期間に渡ってユーザからの入力が検出されないディスプレイに表示される提示情報の少なくとも一部(例えば、後述される価値の高い提示情報である。)が自動的に秘匿化され得る。 In yet another embodiment, when the user terminal 120 has a plurality of display areas 142, the leak prevention support unit 586 monitors whether or not a user input is detected for each of the plurality of display areas 142. When the length of a period during which no user input is detected for at least one display area 142 exceeds a predetermined value, the leak prevention support unit 586 decides to cancel the setting of the viewing area 360 in the above display area 142. In addition, the leak prevention support unit 586 updates the screen displayed in the above display area 142, and displays a screen on which the concealment process has been performed in the display area 142. As a result, for example, at least a portion of the presented information (e.g., high-value presented information described later) displayed on a display on which no user input is detected for a relatively long period of time can be automatically concealed.

さらに他の実施形態において、漏洩防止支援部586は、秘匿化された提示情報の内容を音声で伝達してよい。漏洩防止支援部586は、提示情報が秘匿化されている理由を音声で伝達してもよい。漏洩防止支援部586は、ユーザ端末120に配された指向性スピーカ、イヤホン又はヘッドホンを介して、音声情報を出力してよい。 In yet another embodiment, the leak prevention support unit 586 may transmit the contents of the concealed presentation information by voice. The leak prevention support unit 586 may also transmit the reason why the presentation information is concealed by voice. The leak prevention support unit 586 may output the audio information via a directional speaker, earphones, or headphones arranged on the user terminal 120.

本実施形態において、出力画像生成部588は、元画像生成部560が生成した元画像200の少なくとも一部に対して、秘匿化処理部584による秘匿化処理が施された画像を生成する。出力画像生成部588は、元画像生成部560が生成した元画像200の少なくとも一部に対して、漏洩防止支援部586による支援処理が施された画像を生成してもよい。出力画像生成部588は、元画像生成部560が生成した元画像200の一部に対して、秘匿化処理部584による秘匿化処理と、漏洩防止支援部586による支援処理とが施された画像を生成してもよい。 In this embodiment, the output image generation unit 588 generates an image in which at least a portion of the original image 200 generated by the original image generation unit 560 has been subjected to anonymization processing by the anonymization processing unit 584. The output image generation unit 588 may generate an image in which at least a portion of the original image 200 generated by the original image generation unit 560 has been subjected to assistance processing by the leak prevention assistance unit 586. The output image generation unit 588 may generate an image in which at least a portion of the original image 200 generated by the original image generation unit 560 has been subjected to anonymization processing by the anonymization processing unit 584 and assistance processing by the leak prevention assistance unit 586.

これにより、出力画像300が生成される。出力画像生成部588は、表示装置140の動作を制御して、生成された出力画像300を表示領域142に表示させる。なお、ユーザ端末120が、ユーザ端末120のユーザに情報を提示する表示装置140と、表示装置140とは異なるデバイス(他のデバイスと称される場合がある。)とに、画像を出力する場合がある。このとき、上記の他のデバイスにおいては情報の秘匿化が要求されないこともあり得る。 As a result, an output image 300 is generated. The output image generation unit 588 controls the operation of the display device 140 to display the generated output image 300 in the display area 142. Note that the user terminal 120 may output an image to the display device 140, which presents information to the user of the user terminal 120, and to a device other than the display device 140 (sometimes referred to as an other device). In this case, it may be that the other device does not require information to be kept confidential.

そこで、一実施形態において、ユーザからの明示的な指示により、ユーザ端末120が、上記の他のデバイスに画像を出力する場合、出力画像生成部588は、出力画像300ではなく、元画像200を出力してよい。ユーザ端末120は、出力画像300を記憶するための第1メモリ(VRAMと称される場合がある。)と、第1メモリとは異なるメモリであって、元画像200を記憶するための第2メモリ(VRAMと称される場合がある。)とを備えてよい。 Therefore, in one embodiment, when the user terminal 120 outputs an image to the other device described above in response to an explicit instruction from the user, the output image generating unit 588 may output the original image 200 instead of the output image 300. The user terminal 120 may include a first memory (sometimes referred to as a VRAM) for storing the output image 300, and a second memory (sometimes referred to as a VRAM) that is different from the first memory and for storing the original image 200.

他の実施形態において、ユーザからの明示的な指示により、ユーザ端末120が、上記の他のデバイスに画像を出力する場合、出力画像生成部588は、表示装置140に出力される出力画像300と比較して、秘匿化の程度が弱い画像を当該他のデバイスに出力してよい。ユーザ端末120は、表示装置140に出力される画像を記憶するための第1メモリ(VRAMと称される場合がある。)と、第1メモリとは異なるメモリであって、上記の他のデバイスに出力される画像を記憶するための第2メモリ(VRAMと称される場合がある。)とを備えてよい。 In another embodiment, when the user terminal 120 outputs an image to the other device in response to an explicit instruction from the user, the output image generating unit 588 may output an image with a lower degree of concealment to the other device compared to the output image 300 output to the display device 140. The user terminal 120 may include a first memory (sometimes referred to as a VRAM) for storing the image to be output to the display device 140, and a second memory (sometimes referred to as a VRAM) that is different from the first memory and for storing the image to be output to the other device.

例えば、ユーザからの指示により画面キャプチャ処理が実行される場合、出力画像生成部588は、表示装置140の動作を制御して、元画像200を表示させてよい。同様に、ユーザからの指示により画面共有処理又はデスクトップ共有処理が実行される場合、出力画像生成部588は、表示装置140の動作を制御して、元画像200を表示させてよい。 For example, when a screen capture process is performed in response to an instruction from a user, the output image generation unit 588 may control the operation of the display device 140 to display the original image 200. Similarly, when a screen sharing process or desktop sharing process is performed in response to an instruction from a user, the output image generation unit 588 may control the operation of the display device 140 to display the original image 200.

入力制御部540は、作業位置特定部の一例であってよい。出力制御部550は、画像生成装置又は情報処理装置の一例であってよい。元画像生成部560は、画像生成装置の一例であってよい。画像処理部580は、情報処理装置の一例であってよい。 The input control unit 540 may be an example of a work position identification unit. The output control unit 550 may be an example of an image generation device or an information processing device. The original image generation unit 560 may be an example of an image generation device. The image processing unit 580 may be an example of an information processing device.

図6は、価値マップ生成部582の内部構造の一例を概略的に示す。本実施形態において、価値マップ生成部582は、高価値領域決定部622と、価値決定部624とを備える。 Figure 6 shows an example of the internal structure of the value map generator 582. In this embodiment, the value map generator 582 includes a high value area determiner 622 and a value determiner 624.

本実施形態において、高価値領域決定部622は、元画像200を解析して、元画像200において提示情報が含まれる領域(高価値領域と称される場合がある。)の範囲を決定する。高価値領域決定部622は、公知のパターン認識技術、画像認識技術及び/又は自然言語処理技術を利用して、元画像200における高価値領域の範囲を決定してよい。 In this embodiment, the high value area determination unit 622 analyzes the original image 200 and determines the range of an area (sometimes referred to as a high value area) in the original image 200 that contains the presented information. The high value area determination unit 622 may determine the range of the high value area in the original image 200 using known pattern recognition technology, image recognition technology, and/or natural language processing technology.

高価値領域の範囲としては、元画像200における高価値領域の位置、形状及び大きさが例示される。元画像200に含まれる1以上の高価値領域の範囲が決定されることで、元画像200が複数の区画に分割される。なお、元画像200に含まれる高価値領域の個数が1個の場合であっても、高価値領域と、当該高価値領域以外の領域との2つの区画に分割され得る。 Examples of the range of a high value area include the position, shape, and size of a high value area in the original image 200. By determining the range of one or more high value areas contained in the original image 200, the original image 200 is divided into a plurality of sections. Note that even if the original image 200 contains only one high value area, it may be divided into two sections: the high value area and an area other than the high value area.

提示情報としては、文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つが例示される。文字列の一部としては、当該文字列に含まれる固有名詞、動詞、当該動詞の主語、当該動詞の目的語などが例示される。絵、写真又は動画の一部としては、人の顔が例示される。 Examples of the presented information include at least one selected from the group consisting of a character string, a picture, a diagram, a table, a photograph, a video, and parts of these. Examples of parts of a character string include proper nouns, verbs, subjects of the verbs, and objects of the verbs contained in the character string. Examples of parts of a picture, photograph, or video include a person's face.

本実施形態において、価値決定部624は、1以上の高価値領域の少なくとも1つについて、各高価値領域に含まれる提示情報の価値を決定する。価値決定部624は、例えば、元画像200に含まれる少なくとも1つの高価値領域について、(a)各高価値領域に含まれる提示情報の種類、(b)各高価値領域におけるユーザによるポインティングデバイスの操作履歴、(c)各高価値領域におけるユーザの視線のトラッキング履歴、(d)各高価値領域が属するウインドウに付与されたフラグ、(e)各高価値領域が属するウインドウに情報を表示するアプリケーションの種類、並びに、(f)各高価値領域が属するウインドウに表示される情報のURIの少なくとも1つに基づいて、各高価値領域に含まれる提示情報の価値を導出する。 In this embodiment, the value determination unit 624 determines the value of the presented information contained in at least one of the high value areas. For example, for at least one high value area included in the original image 200, the value determination unit 624 derives the value of the presented information contained in each high value area based on at least one of (a) the type of presented information contained in each high value area, (b) the operation history of the pointing device by the user in each high value area, (c) the tracking history of the user's gaze in each high value area, (d) the flag assigned to the window to which each high value area belongs, (e) the type of application that displays information in the window to which each high value area belongs, and (f) the URI of the information displayed in the window to which each high value area belongs.

価値決定部624は、各提示情報の種類に基づいて、各提示情報の価値を決定してよい。価値決定部624は、例えば、提示情報の種類ごとに予め定められたスコアに基づいて、各高価値領域に含まれる提示情報の価値を決定する。提示情報の種類としては、文字列、絵、図、表、写真、動画などが例示される。提示情報の種類は、固有名詞、動詞、当該動詞の主語、当該動詞の目的語、人の顔などであってよい。 The value determination unit 624 may determine the value of each piece of presented information based on the type of each piece of presented information. The value determination unit 624 determines the value of the presented information included in each high value area based on, for example, a score that is predetermined for each type of presented information. Examples of the type of presented information include a character string, a picture, a diagram, a table, a photograph, and a video. The type of presented information may be a proper noun, a verb, a subject of the verb, an object of the verb, a human face, and the like.

価値決定部624は、各提示情報に対してなされたポインティングデバイスの操作の種類に基づいて、各提示情報の価値を決定してよい。価値決定部624は、例えば、ユーザによるポインティングデバイスの操作ごとに予め定められたスコアに基づいて、各高価値領域に含まれる提示情報の価値を決定する。 The value determination unit 624 may determine the value of each piece of presented information based on the type of pointing device operation performed on each piece of presented information. The value determination unit 624 determines the value of the presented information included in each high value area based on, for example, a predetermined score for each operation of the pointing device by the user.

例えば、ユーザのクリック操作の頻度が予め定められた値よりも大きな領域に含まれる提示情報は、当該ユーザにとって価値の高い情報であることが推定される。同様に、ユーザのドラック操作により選択された領域に含まれる提示情報は、当該ユーザにとって価値の高い情報であることが推定される。ユーザによるポインティングデバイスの操作ごとにスコアが付与されることで、当該ユーザにとって価値の高い情報が抽出され得る。 For example, presented information included in an area where the frequency of user click operations is greater than a predetermined value is presumed to be information of high value to the user. Similarly, presented information included in an area selected by a user's drag operation is presumed to be information of high value to the user. By assigning a score to each operation of the pointing device by the user, information of high value to the user can be extracted.

価値決定部624は、例えば、ユーザの視線の滞在時間の長さに基づいて、各高価値領域に含まれる提示情報の価値を決定する。例えば、ユーザの視線の滞在時間が長い領域に含まれる提示情報は、当該ユーザにとって価値の高い情報であることが推定される。 The value determination unit 624 determines the value of the presented information contained in each high-value area based on, for example, the length of time the user's gaze dwells on the area. For example, presented information contained in an area where the user's gaze dwells for a long time is estimated to be information of high value to the user.

価値決定部624は、ウインドウに付与されるフラグの種類に基づいて、当該ウインドウに含まれる提示情報の価値を決定してよい。価値決定部624は、例えば、上記のフラグごとに予め定められたスコアに基づいて、各ウインドウに含まれる提示情報の価値を決定する。例えば、コピー不可、スクリーンショット不可などのフラグが付与されたウインドウに表示される情報は、ユーザにとって価値の高い情報であることが推定される。 The value determination unit 624 may determine the value of the presented information contained in a window based on the type of flag assigned to the window. The value determination unit 624 determines the value of the presented information contained in each window, for example, based on a predetermined score for each of the above flags. For example, information displayed in a window that has been assigned a flag such as no copying or no screenshots is presumed to be highly valuable to the user.

価値決定部624は、ウインドウに情報を表示するアプリケーションの種類に基づいて、当該ウインドウに含まれる提示情報の価値を決定してよい。価値決定部624は、例えば、上記のアプリケーションの種類ごとに予め定められたスコアに基づいて、各ウインドウに含まれる提示情報の価値を決定する。 The value determination unit 624 may determine the value of the presented information included in a window based on the type of application that displays information in the window. The value determination unit 624 determines the value of the presented information included in each window based on, for example, a score that is predetermined for each of the above types of applications.

例えば、電卓計算用のアプリケーションプログラムにより表示される情報は、ユーザにとって価値の低い情報であることが推定される。一方、表計算用、プレゼンテーション用又は文書作成用のアプリケーションプログラムにより表示される情報は、ユーザにとって価値の高い情報であることが推定される。 For example, information displayed by a calculator application program is presumed to be of low value to the user. On the other hand, information displayed by a spreadsheet, presentation, or document creation application program is presumed to be of high value to the user.

価値決定部624は、ウインドウに表示される情報のURIに基づいて、当該ウインドウに含まれる提示情報の価値を決定してよい。価値決定部624は、例えば、上記のURIごとに予め定められたスコアに基づいて、各ウインドウに含まれる提示情報の価値を決定する。例えば、インターネット上に公開されているWebサイトに掲載されている情報は、イントラネット上の情報と比較して、価値が低いことが推定される。 The value determination unit 624 may determine the value of the presented information contained in a window based on the URI of the information displayed in the window. The value determination unit 624 determines the value of the presented information contained in each window, for example, based on a score that is predetermined for each of the above-mentioned URIs. For example, information posted on a website published on the Internet is estimated to be less valuable than information on an intranet.

本実施形態において、価値決定部624は、上述された価値マップを生成してよい。価値マップは、例えば、元画像200に含まれる1以上の高価値領域のそれぞれが占める範囲を示す情報と、当該1以上の高価値領域のそれぞれに含まれる提示情報の価値を示す情報とを対応付けて格納する。価値マップの詳細は後述される。 In this embodiment, the value determination unit 624 may generate the value map described above. The value map stores, for example, information indicating the range occupied by each of one or more high value areas included in the original image 200 and information indicating the value of the presented information included in each of the one or more high value areas in association with each other. Details of the value map will be described later.

高価値領域決定部622は、分割部の一例であってよい。価値決定部624は、価値導出部の一例であってよい。1以上の高価値領域の少なくとも1つは、複数の区画の少なくとも一部の一例であってよい。各高価値領域に含まれる提示情報は、各区画に含まれる情報の一例であってよい。 The high value area determination unit 622 may be an example of a division unit. The value determination unit 624 may be an example of a value derivation unit. At least one of the one or more high value areas may be an example of at least a portion of a plurality of sections. The presented information included in each high value area may be an example of information included in each section.

図7は、データテーブル700のデータ構造の一例を概略的に示す。データテーブル700は、上述された価値マップの一例であってよい。データテーブル700は、例えば、価値マップ生成部582により生成され、設定情報格納部520に格納される。 Figure 7 shows an example of the data structure of data table 700. Data table 700 may be an example of the value map described above. Data table 700 is generated, for example, by value map generator 582 and stored in setting information storage unit 520.

本実施形態において、データテーブル700は、1以上の高価値領域のそれぞれに対応する1以上のレコードを含む。1以上のレコードのそれぞれは、特定の高価値領域の識別情報である領域ID722と、元画像200において当該特定の高価値領域が占める範囲724を示す情報と、当該特定の高価値領域に含まれる提示情報の価値726を示す情報とを対応付けて格納する。本実施形態において、特定の高価値領域が占める範囲724は、例えば、元画像200における当該高価値領域の代表点の位置と、当該高価値領域の形状及び大きさとにより表される。 In this embodiment, the data table 700 includes one or more records corresponding to one or more high value areas. Each of the one or more records stores, in association with each other, an area ID 722 that is identification information of a specific high value area, information indicating an area 724 that the specific high value area occupies in the original image 200, and information indicating a value 726 of the presented information included in the specific high value area. In this embodiment, the area 724 that the specific high value area occupies is represented, for example, by the position of a representative point of the high value area in the original image 200 and the shape and size of the high value area.

図8は、秘匿化処理部584の内部構成の一例を概略的に示す。本実施形態において、秘匿化処理部584は、モード決定部820と、閲覧領域決定部832と、閲覧レベル決定部834と、秘匿化領域決定部842と、秘匿化態様決定部844とを備える。 Figure 8 shows an example of the internal configuration of the anonymization processing unit 584. In this embodiment, the anonymization processing unit 584 includes a mode determination unit 820, a viewing area determination unit 832, a viewing level determination unit 834, an anonymization area determination unit 842, and an anonymization mode determination unit 844.

本実施形態において、モード決定部820は、上述された秘匿化の対象に関する動作モードを決定する。上述されたとおり、秘匿化の対象に関する動作モードとしては、(a)原則として秘匿化処理が実行され、ユーザの作業に必要と推定される領域には例外的に秘匿化処理が実行されないモード、(b)原則として秘匿化処理が実行されず、表示領域142の近傍に存在するユーザ以外の人物が閲覧していると推定される領域には例外的に秘匿化処理が実行されるモードなどが例示される。 In this embodiment, the mode determination unit 820 determines the operation mode for the object of anonymization described above. As described above, examples of the operation mode for the object of anonymization include (a) a mode in which the anonymization process is performed in principle, and the anonymization process is not performed exceptionally in an area estimated to be necessary for the user's work, and (b) a mode in which the anonymization process is not performed in principle, and the anonymization process is performed exceptionally in an area estimated to be viewed by a person other than the user who is present near the display area 142.

一実施形態において、モード決定部820は、設定情報格納部520に格納された設定情報に基づいて、動作モードを決定する。他の実施形態において、モード決定部820は、ユーザ端末120の管理者又はユーザからの指示に基づいて、動作モードを決定する。 In one embodiment, the mode determination unit 820 determines the operation mode based on the setting information stored in the setting information storage unit 520. In another embodiment, the mode determination unit 820 determines the operation mode based on an instruction from an administrator or user of the user terminal 120.

本実施形態において、閲覧領域決定部832は、1以上の閲覧領域360を決定する。例えば、閲覧領域決定部832は、まず、元画像200の特定の位置を、上述された閲覧位置362として特定する。具体的には、閲覧領域決定部832は、(i)ユーザによる入力の位置若しくは範囲、及び/又は、(ii)ユーザの視線の位置若しくは範囲に基づいて、閲覧位置362を特定する。 In this embodiment, the viewing area determination unit 832 determines one or more viewing areas 360. For example, the viewing area determination unit 832 first identifies a specific position of the original image 200 as the above-described viewing position 362. Specifically, the viewing area determination unit 832 identifies the viewing position 362 based on (i) the position or range of the user's input and/or (ii) the position or range of the user's line of sight.

一実施形態において、閲覧領域決定部832は、操作情報取得部576から、ユーザによる入力の位置又は範囲を示す情報を取得する。ユーザによる入力の位置又は範囲としては、元画像200におけるポインタ又はカーソルの位置、元画像200においてドラッグされた範囲などが例示される。閲覧領域決定部832は、上記の入力の位置又は範囲を、閲覧位置362として特定する。上述されたとおり、ユーザによる入力の位置又は範囲は、ユーザにより指定された位置又は範囲の一例であってよい。 In one embodiment, the viewing area determination unit 832 acquires information indicating the position or range of the user's input from the operation information acquisition unit 576. Examples of the position or range of the user's input include the position of the pointer or cursor in the original image 200, and the range dragged in the original image 200. The viewing area determination unit 832 identifies the position or range of the input as the viewing position 362. As described above, the position or range of the user's input may be an example of a position or range specified by the user.

他の実施形態において、閲覧領域決定部832は、例えば、ウインドウ制御部534から、ユーザによる入力に関連して用いられるウインドウの位置又は範囲を示す情報を取得する。入力に関連して用いられるウインドウとしては、入力支援プログラム又は入力方法編集プログラム(IMEと称される場合がある。)に対応する各種のウインドウが例示される。閲覧領域決定部832は、上記のウインドウの位置又は範囲を、閲覧位置362として特定する。入力に関連して用いられるウインドウの位置又は範囲は、ユーザにより指定された位置又は範囲の一例であってよい。 In another embodiment, the viewing area determination unit 832 obtains, for example, from the window control unit 534, information indicating the position or range of a window used in connection with input by the user. Examples of windows used in connection with input include various windows corresponding to an input assistance program or an input method editing program (sometimes referred to as an IME). The viewing area determination unit 832 identifies the position or range of the above-mentioned window as the viewing position 362. The position or range of a window used in connection with input may be an example of a position or range specified by the user.

さらに他の実施形態において、閲覧領域決定部832は、視線情報取得部574から、元画像200におけるユーザの視線の位置又は範囲を示す情報を取得する。閲覧領域決定部832は、上記の視線の位置又は範囲を、閲覧位置362として特定する。上述されたとおり、ユーザの視線の位置又は範囲は、ユーザにより参照された位置又は範囲の一例であってよい。 In yet another embodiment, the viewing area determination unit 832 acquires information indicating the position or range of the user's gaze in the original image 200 from the gaze information acquisition unit 574. The viewing area determination unit 832 identifies the above-mentioned gaze position or range as the viewing position 362. As described above, the user's gaze position or range may be an example of a position or range referenced by the user.

次に、閲覧領域決定部832は、閲覧位置362を含む特定の範囲を、閲覧領域360として決定する。閲覧領域決定部832は、閲覧位置362の近傍に配された提示情報の価値に基づいて、閲覧領域360の範囲を決定してよい。閲覧領域決定部832は、例えば、上記の提示情報の価値が大きいほど閲覧領域360の大きさが小さくなるように、閲覧領域360の範囲を決定する。 Next, the viewing area determination unit 832 determines a specific range including the viewing position 362 as the viewing area 360. The viewing area determination unit 832 may determine the range of the viewing area 360 based on the value of the presented information arranged in the vicinity of the viewing position 362. For example, the viewing area determination unit 832 determines the range of the viewing area 360 such that the greater the value of the presented information, the smaller the size of the viewing area 360.

例えば、閲覧位置362がポインタ又はカーソルの位置である場合、閲覧位置362は元画像200上の特定の位置を示す。この場合、閲覧領域決定部832は、閲覧位置362を含む高価値領域に含まれる提示情報の価値に基づいて、閲覧領域360の範囲を決定してよい。例えば、閲覧位置362がドラッグされた範囲である場合、閲覧位置362は元画像200上の特定の範囲を示す。この場合、閲覧領域決定部832は、閲覧位置362に含まれる情報の価値に基づいて、閲覧領域360の範囲を決定してよい。 For example, if the viewing position 362 is the position of a pointer or cursor, the viewing position 362 indicates a specific position on the original image 200. In this case, the viewing area determination unit 832 may determine the range of the viewing area 360 based on the value of the presented information contained in the high-value area that includes the viewing position 362. For example, if the viewing position 362 is a dragged range, the viewing position 362 indicates a specific range on the original image 200. In this case, the viewing area determination unit 832 may determine the range of the viewing area 360 based on the value of the information contained in the viewing position 362.

閲覧領域決定部832は、ユーザによるポインティングデバイスの操作履歴及び/又は、ユーザの視線のトラッキング履歴に基づいて、閲覧領域360の範囲を決定してもよい。閲覧領域360の範囲としては、形状、大きさなどが例示される。 The viewing area determination unit 832 may determine the range of the viewing area 360 based on the operation history of the pointing device by the user and/or the tracking history of the user's gaze. Examples of the range of the viewing area 360 include the shape, size, etc.

例えば、閲覧領域決定部832は、ユーザによるポインティングデバイスの操作履歴及び/又は、ユーザの視線のトラッキング履歴に基づいて、閲覧位置362が、横書きの文書の一部であるか、縦書きの文書の一部であるかを判定する。閲覧位置362が横書きの文書の一部であると判定された場合、閲覧領域決定部832は、閲覧領域360の形状が横長の形状となるように、閲覧領域360の範囲を決定してよい。閲覧位置362が縦書きの文書の一部であると判定された場合、閲覧領域決定部832は、閲覧領域360の形状が縦長の形状となるように、閲覧領域360の範囲を決定してよい。 For example, the viewing area determination unit 832 determines whether the viewing position 362 is part of a horizontally written document or part of a vertically written document based on the user's pointing device operation history and/or the user's gaze tracking history. If the viewing position 362 is determined to be part of a horizontally written document, the viewing area determination unit 832 may determine the range of the viewing area 360 so that the shape of the viewing area 360 is horizontally long. If the viewing position 362 is determined to be part of a vertically written document, the viewing area determination unit 832 may determine the range of the viewing area 360 so that the shape of the viewing area 360 is vertically long.

例えば、閲覧領域決定部832は、ユーザによるポインティングデバイスの操作履歴及び/又は、ユーザの視線のトラッキング履歴に基づいて、ユーザの入力又は視線の移動速度を決定する。閲覧領域決定部832は、ユーザの入力又は視線の移動方向及び移動速度の少なくとも一方に基づいて、閲覧領域360の範囲を調整してよい。 For example, the viewing area determination unit 832 determines the user's input or line of sight movement speed based on the user's pointing device operation history and/or the user's line of sight tracking history. The viewing area determination unit 832 may adjust the range of the viewing area 360 based on at least one of the user's input or line of sight movement direction and movement speed.

例えば、閲覧領域決定部832は、ユーザの入力又は視線の移動速度が大きいほど、閲覧領域360の大きさが大きくなるように、閲覧領域360の範囲を調整する。閲覧領域決定部832は、閲覧位置362から移動方向側の端部までの長さが、閲覧位置362から移動方向と反対側の端部までの長さよりも大きくなるように、閲覧領域360の範囲を調整してよい。 For example, the viewing area determination unit 832 adjusts the range of the viewing area 360 so that the size of the viewing area 360 increases as the user's input or line of sight movement speed increases. The viewing area determination unit 832 may adjust the range of the viewing area 360 so that the length from the viewing position 362 to the end on the movement direction side is greater than the length from the viewing position 362 to the end on the opposite side to the movement direction.

閲覧領域決定部832は、閲覧領域360がユーザによるポインティングデバイスの操作を邪魔しないように、閲覧領域360の範囲を調整してよい。例えば、閲覧領域決定部832は、1以上の閲覧領域360の少なくとも1つが、上述されたポインタ又はカーソルの位置に配されるように、閲覧領域360の範囲を調整する。これにより、ポインタ又はカーソルが、提示情報を秘匿化するためのオブジェクトに覆われることが抑制される。その結果、上記のオブジェクトによりユーザの入力操作が阻害されることが抑制される。 The viewing area determination unit 832 may adjust the range of the viewing area 360 so that the viewing area 360 does not interfere with the user's operation of the pointing device. For example, the viewing area determination unit 832 adjusts the range of the viewing area 360 so that at least one of the one or more viewing areas 360 is positioned at the position of the pointer or cursor described above. This prevents the pointer or cursor from being covered by an object for concealing the presented information. As a result, the above-mentioned object is prevented from interfering with the user's input operation.

本実施形態において、閲覧レベル決定部834は、1以上の閲覧領域360のそれぞれについて、ユーザが作業を継続するために当該領域を閲覧することが必要と推定される度合い(閲覧レベルと称される場合がある。)を決定する。一実施形態において、閲覧レベル決定部834は、閲覧領域決定部832が抽出した全ての閲覧領域360が同一の閲覧レベルを有すると判定してよい。閲覧レベル決定部834は、閲覧領域決定部832により閲覧領域360として抽出されなかった領域は、閲覧領域360と比較して上記の度合いが小さいと判定してよい。 In this embodiment, the viewing level determination unit 834 determines, for each of one or more viewing areas 360, the degree to which it is estimated that the user needs to view that area in order to continue working (sometimes referred to as the viewing level). In one embodiment, the viewing level determination unit 834 may determine that all viewing areas 360 extracted by the viewing area determination unit 832 have the same viewing level. The viewing level determination unit 834 may determine that areas not extracted as viewing areas 360 by the viewing area determination unit 832 have a lower degree of the above compared to the viewing areas 360.

他の実施形態において、閲覧レベル決定部834は、ユーザによるポインティングデバイスの操作履歴及び/又は、ユーザの視線のトラッキング履歴に基づいて、1以上の閲覧領域360のそれぞれの閲覧レベルを決定してよい。例えば、閲覧レベル決定部834は、ポインタ若しくはカーソル又はユーザの視線の滞在時間が長いほど閲覧レベルが大きくなるように、1以上の閲覧領域360のそれぞれの閲覧レベルを決定する。 In another embodiment, the viewing level determination unit 834 may determine the viewing level of each of the one or more viewing areas 360 based on the user's operation history of the pointing device and/or the tracking history of the user's gaze. For example, the viewing level determination unit 834 determines the viewing level of each of the one or more viewing areas 360 such that the longer the dwell time of the pointer or cursor or the user's gaze is, the higher the viewing level is.

本実施形態において、秘匿化領域決定部842は、元画像200において秘匿化が施される領域(秘匿化領域と称される場合がある。)を決定する。秘匿化領域決定部842は、例えば、価値決定部624が導出した価値と、閲覧領域決定部832が特定した閲覧位置362又は閲覧領域360とに基づいて、秘匿化領域の範囲を決定する。 In this embodiment, the concealment area determination unit 842 determines an area to be concealed in the original image 200 (sometimes referred to as a concealment area). The concealment area determination unit 842 determines the range of the concealment area based on, for example, the value derived by the value determination unit 624 and the viewing position 362 or the viewing area 360 identified by the viewing area determination unit 832.

情報の漏洩を防止することを目的とした場合、価値決定部624が導出した価値の大きな領域(例えば、高価値領域である。)は、秘匿化されることが望ましい。また、価値決定部624が導出した価値の大きな領域ほど、強く秘匿化されることが望ましい。一方、閲覧領域360の内部における秘匿化の度合いが小さいほど、ユーザの利便性は向上する。秘匿化領域決定部842は、両者のバランスを考慮して、秘匿化領域を決定する。 When the purpose is to prevent information leakage, it is desirable to conceal areas with a large value derived by the value determination unit 624 (for example, high-value areas). Furthermore, it is desirable that the greater the value derived by the value determination unit 624, the stronger the concealment. On the other hand, the smaller the degree of concealment within the viewing area 360, the greater the convenience for the user. The concealment area determination unit 842 determines the concealment area by taking into account the balance between these two.

一実施形態において、秘匿化領域決定部842は、少なくとも、閲覧領域360の範囲外に配される高価値領域に秘匿化が施されることを決定する。他の実施形態において、秘匿化領域決定部842は、少なくとも、閲覧領域360の範囲外に配される高価値領域のうち、その価値が予め定められた第1の度合いよりも大きな高価値領域に、秘匿化が施されることを決定する。 In one embodiment, the concealment area determination unit 842 determines that concealment is to be applied to at least high-value areas located outside the range of the viewing area 360. In another embodiment, the concealment area determination unit 842 determines that concealment is to be applied to at least high-value areas located outside the range of the viewing area 360, the high-value areas having a value greater than a predetermined first degree.

さらに他の実施形態において、閲覧領域360の内部に高価値領域が含まれている場合、秘匿化領域決定部842は、少なくとも、当該高価値領域に秘匿化が施されることを決定する。秘匿化領域決定部842は、閲覧領域360の内部の他の領域には秘匿化が施されないことを決定してよい。 In yet another embodiment, if the viewing area 360 includes a high-value area, the anonymization area determination unit 842 determines that at least the high-value area is to be anonymized. The anonymization area determination unit 842 may determine that other areas within the viewing area 360 are not to be anonymized.

さらに他の実施形態において、閲覧領域360の内部に、その価値が予め定められた第2の度合いよりも大きな高価値領域が含まれている場合、秘匿化領域決定部842は、少なくとも、当該高価値領域に秘匿化が施されることを決定する。秘匿化領域決定部842は、閲覧領域360の内部の他の領域には秘匿化が施されないことを決定してよい。 In yet another embodiment, if the viewing area 360 includes a high-value area whose value is greater than a second predetermined degree, the anonymization area determination unit 842 determines that at least the high-value area is to be anonymized. The anonymization area determination unit 842 may determine that other areas within the viewing area 360 are not to be anonymized.

さらに他の実施形態において、閲覧領域360の内部に、その価値が予め定められた第2の度合いよりも大きな高価値領域が含まれていない場合、秘匿化領域決定部842は、閲覧領域360に秘匿化が施されないことを決定する。上記の第2の度合いは、上述された第1の度合いよりも大きくてよい。 In yet another embodiment, if the viewing area 360 does not include a high-value area whose value is greater than a predetermined second degree, the anonymization area determination unit 842 determines that the viewing area 360 is not anonymized. The second degree may be greater than the first degree described above.

本実施形態において、秘匿化態様決定部844は、1以上の秘匿化領域のそれぞれにおいて施される秘匿化の態様を決定する。上述されたとおり、秘匿化の態様としては、秘匿化処理の種類又は方式、秘匿化処理の強度などが例示される。 In this embodiment, the concealment mode determination unit 844 determines the mode of concealment to be applied to each of one or more concealment regions. As described above, examples of the concealment mode include the type or method of concealment processing, the strength of the concealment processing, etc.

一実施形態において、秘匿化態様決定部844は、各秘匿化領域に含まれる提示情報の価値に基づいて、各秘匿化領域における秘匿化の態様を決定する。秘匿化態様決定部844は、価値マップ生成部582が生成した価値マップを参照して、各秘匿化領域に含まれる提示情報の価値を取得してよい。 In one embodiment, the anonymization mode determination unit 844 determines the anonymization mode in each anonymization area based on the value of the presented information included in each anonymization area. The anonymization mode determination unit 844 may obtain the value of the presented information included in each anonymization area by referring to the value map generated by the value map generation unit 582.

秘匿化態様決定部844は、例えば、提示情報の価値が大きいほど閲覧性の低い秘匿化方式が採用されるように、各秘匿化領域における秘匿化の態様を決定する。秘匿化態様決定部844は、例えば、提示情報の価値が大きいほど、秘匿化処理の強度が大きくなるように、各秘匿化領域における秘匿化の態様を決定する。 The anonymization mode determination unit 844 determines the anonymization mode in each anonymization area so that, for example, the greater the value of the presented information, the lower the visibility of the anonymization method that is adopted. The anonymization mode determination unit 844 determines the anonymization mode in each anonymization area so that, for example, the greater the value of the presented information, the stronger the anonymization process.

他の実施形態において、秘匿化態様決定部844は、閲覧領域360の内部に表示される提示情報の表示態様を調整してよい。例えば、ユーザが、自身の身体で表示領域142を隠しながら表示領域142を閲覧しようとした場合、ユーザと、表示領域142との距離が近づく。そのため、表示領域142に表示される提示情報を小さくしても、ユーザは、当該提示情報を認識することができる。一方、表示領域142の周辺に存在するユーザ以外の人物は、上記の提示情報を認識することが難しくなる。 In another embodiment, the concealment mode determination unit 844 may adjust the display mode of the presented information displayed within the viewing area 360. For example, if the user attempts to view the display area 142 while hiding it with his or her body, the distance between the user and the display area 142 becomes closer. Therefore, even if the presented information displayed in the display area 142 is made smaller, the user can still recognize the presented information. On the other hand, it becomes difficult for people other than the user who are present around the display area 142 to recognize the presented information.

より具体的には、秘匿化態様決定部844は、ユーザと、表示領域142との距離に基づいて、閲覧領域360の内部に表示される提示情報の表示態様を調整する。例えば、秘匿化態様決定部844は、距離センサ152が出力したデータを取得する。これにより、秘匿化態様決定部844は、ユーザと、表示領域142との距離を示す情報を取得することができる。ユーザと、表示領域142との距離が予め定められた値よりも小さくなった場合、秘匿化態様決定部844は、ユーザの表示領域142への近接を検出する。ユーザの表示領域142への近接が検出された場合、秘匿化態様決定部844は、閲覧領域360の内部に含まれる文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つの大きさを小さくすることを決定する。 More specifically, the anonymization mode determination unit 844 adjusts the display mode of the presented information displayed within the viewing area 360 based on the distance between the user and the display area 142. For example, the anonymization mode determination unit 844 acquires data output by the distance sensor 152. This allows the anonymization mode determination unit 844 to acquire information indicating the distance between the user and the display area 142. When the distance between the user and the display area 142 becomes smaller than a predetermined value, the anonymization mode determination unit 844 detects the user's approach to the display area 142. When the user's approach to the display area 142 is detected, the anonymization mode determination unit 844 determines to reduce the size of at least one selected from the group consisting of character strings, pictures, figures, tables, photographs, and videos, and parts of these, contained within the viewing area 360.

この場合において、秘匿化態様決定部844は、ユーザ及び表示領域142との距離に基づいて、閲覧領域360の内部に提示される提示情報の大きさを決定してもよい。秘匿化態様決定部844は、上記の距離に反比例する連続関数を用いて、閲覧領域360の内部に提示される提示情報の大きさを決定してもよい。なお、上記の距離の算出は、距離センサ152を用いる手法に限定されない。他の実施形態において、秘匿化態様決定部844は、単眼カメラを用いた顔検出技術により検出されたユーザの顔のバウンディングボックスのサイズと、標準的な人間の顔のサイズとを用いて、上記の距離を推定してよい。 In this case, the anonymization mode determination unit 844 may determine the size of the presentation information presented inside the viewing area 360 based on the distance between the user and the display area 142. The anonymization mode determination unit 844 may determine the size of the presentation information presented inside the viewing area 360 using a continuous function that is inversely proportional to the above distance. Note that the calculation of the above distance is not limited to a method using the distance sensor 152. In other embodiments, the anonymization mode determination unit 844 may estimate the above distance using the size of a bounding box of the user's face detected by face detection technology using a monocular camera and the size of a standard human face.

ユーザが、自身の身体で表示領域142を隠しながら表示領域142を閲覧しようとした場合、ユーザと、表示領域142との距離が近づく。そのため、表示領域142の周辺に存在するユーザ以外の人物が、表示領域142に提示された情報を覗き見ることが難しくなる。そこで、ユーザの表示領域142への近接が検出された場合、秘匿化態様決定部844は、(i)閲覧領域360の内部に含まれる文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つの大きさを大きくすること、及び/又は、(ii)閲覧領域360の範囲を大きくすることを決定してもよい。 When a user attempts to view the display area 142 while hiding it with their body, the distance between the user and the display area 142 becomes closer. This makes it difficult for people other than the user who are in the vicinity of the display area 142 to peek at the information presented in the display area 142. Thus, when the user's approach to the display area 142 is detected, the anonymization mode determination unit 844 may determine to (i) increase the size of at least one selected from the group consisting of character strings, pictures, diagrams, tables, photographs, and videos, and parts of these, contained within the viewing area 360, and/or (ii) increase the range of the viewing area 360.

閲覧領域360の内部に表示される提示情報の表示態様を調整する他の具体例において、秘匿化態様決定部844は、表示領域142の周辺に存在する人物の個数に基づいて、閲覧領域360の内部に表示される提示情報の表示態様を調整する。例えば、秘匿化態様決定部844は、環境センサ150により取得された情報(例えば、カメラ154により撮像された画像の画像データである。)を取得する。秘匿化態様決定部844は、公知の顔検出技術により上記の情報を解析して人間の顔を検出する。これにより、秘匿化態様決定部844は、表示領域142の周辺に存在する人物の個数を決定することができる。 In another specific example of adjusting the display mode of the presented information displayed within the viewing area 360, the anonymization mode determination unit 844 adjusts the display mode of the presented information displayed within the viewing area 360 based on the number of people present around the display area 142. For example, the anonymization mode determination unit 844 acquires information acquired by the environmental sensor 150 (e.g., image data of an image captured by the camera 154). The anonymization mode determination unit 844 analyzes the information using a known face detection technique to detect a human face. This allows the anonymization mode determination unit 844 to determine the number of people present around the display area 142.

秘匿化態様決定部844は、例えば、表示領域142の周辺に存在する人物の個数又は検出された人間の顔の個数に基づいて、閲覧領域360の内部に提示される提示情報の大きさを決定する。秘匿化態様決定部844は、上記の人物又は顔の個数に比例する連続関数を用いて、閲覧領域360の内部に提示される提示情報の大きさを決定してもよい。 The anonymization mode determination unit 844 determines the size of the presentation information to be presented inside the viewing area 360, for example, based on the number of people present around the display area 142 or the number of detected human faces. The anonymization mode determination unit 844 may determine the size of the presentation information to be presented inside the viewing area 360 using a continuous function proportional to the number of people or faces.

閲覧領域360の内部に表示される提示情報の表示態様を調整するさらに他の具体例において、秘匿化態様決定部844は、ユーザ及び表示領域142との距離と、表示領域142の周辺に存在する人物の個数とに基づいて、閲覧領域360の内部に表示される提示情報の表示態様を調整する。秘匿化態様決定部844は、例えば、ユーザ及び表示領域142との距離と、表示領域142の周辺に存在する人物の個数とに基づいて、閲覧領域360の内部に提示される提示情報の大きさを決定する。秘匿化態様決定部844は、上記の距離に反比例し、且つ、上記の人物又は顔の個数に比例する連続関数を用いて、閲覧領域360の内部に提示される提示情報の大きさを決定してもよい。 In yet another specific example of adjusting the display mode of the presented information displayed within the viewing area 360, the anonymization mode determination unit 844 adjusts the display mode of the presented information displayed within the viewing area 360 based on the distance between the user and the display area 142 and the number of people present around the display area 142. The anonymization mode determination unit 844 determines the size of the presented information presented within the viewing area 360 based on, for example, the distance between the user and the display area 142 and the number of people present around the display area 142. The anonymization mode determination unit 844 may determine the size of the presented information presented within the viewing area 360 using a continuous function that is inversely proportional to the distance and proportional to the number of people or faces.

閲覧領域決定部832は、作業位置特定部又は作業領域決定部の一例であってよい。秘匿化領域決定部842は、対象領域決定部又は近接検出部の一例であってよい。高価値領域は、価値が予め定められた第1の度合いよりも大きな区画の一例であってよい。閲覧領域360の内部に含まれる高価値領域は、その価値が予め定められた第2の度合いよりも大きな区画の一例であってよい。 The viewing area determination unit 832 may be an example of a work position identification unit or a work area determination unit. The concealment area determination unit 842 may be an example of a target area determination unit or a proximity detection unit. The high value area may be an example of a section whose value is greater than a predetermined first degree. The high value area included within the viewing area 360 may be an example of a section whose value is greater than a predetermined second degree.

(別実施形態の一例)
本実施形態においては、秘匿化処理部584が、価値マップ生成部582が生成した価値マップを参照して、秘匿化領域及び/又は秘匿化の態様を決定する場合を例として、情報漏洩抑制システム100の詳細が説明された。しかしながら、価値マップの利用方法は、本実施形態に限定されない。
(An example of another embodiment)
In this embodiment, the details of the information leakage prevention system 100 have been described by taking as an example a case in which the anonymization processing unit 584 determines the anonymization area and/or the anonymization mode by referring to the value map generated by the value map generating unit 582. However, the method of using the value map is not limited to this embodiment.

他の実施形態において、価値マップは、ユーザにとって価値の高い情報を強調して提示するために用いられる。例えば、制御装置170は、ユーザにとって価値の高い情報を強調表示するための動作モードを有する。制御装置170は、価値マップを用いて、予め定められた基準を超える価値を有する提示情報を抽出する。制御装置170は、抽出された提示情報が他の情報よりも強調された表示画像を生成する。制御装置170は、例えば、抽出された提示情報の色彩、模様、大きさ、フォント、明るさ、コントラスト及び/又はアニメーション若しくは動きを調整することで、上記の表示画像を生成する。制御装置170は、表示装置140を制御して、生成された画像を表示領域142に表示させる。 In another embodiment, the value map is used to emphasize and present information that is highly valuable to the user. For example, the control device 170 has an operating mode for highlighting information that is highly valuable to the user. The control device 170 uses the value map to extract presented information that has a value exceeding a predetermined standard. The control device 170 generates a display image in which the extracted presented information is emphasized more than other information. The control device 170 generates the display image by, for example, adjusting the color, pattern, size, font, brightness, contrast, and/or animation or movement of the extracted presented information. The control device 170 controls the display device 140 to display the generated image in the display area 142.

図9は、データテーブル900のデータ構造の一例を概略的に示す。データテーブル900は、1以上の閲覧領域360のそれぞれに関する各種の情報を格納する。データテーブル900は、例えば、秘匿化処理部584により生成され、設定情報格納部520に格納される。 Figure 9 shows an example of the data structure of the data table 900. The data table 900 stores various information related to each of the one or more viewing areas 360. The data table 900 is generated by, for example, the anonymization processing unit 584 and stored in the setting information storage unit 520.

本実施形態において、データテーブル900は、1以上の閲覧領域360のそれぞれに対応する1以上のレコードを含む。1以上のレコードのそれぞれは、特定の閲覧領域360の識別情報である領域ID922と、元画像200において当該特定の閲覧領域360が占める範囲924を示す情報と、当該特定の閲覧領域360の閲覧レベル926を示す情報とを対応付けて格納する。本実施形態において、特定の閲覧領域360が占める範囲924は、例えば、元画像200における閲覧領域360の代表点の位置と、閲覧領域360の形状及び大きさとにより表される。 In this embodiment, the data table 900 includes one or more records corresponding to one or more viewing areas 360. Each of the one or more records stores, in association with each other, an area ID 922 that is identification information of a specific viewing area 360, information indicating an area 924 that the specific viewing area 360 occupies in the original image 200, and information indicating a viewing level 926 of the specific viewing area 360. In this embodiment, the area 924 that the specific viewing area 360 occupies is represented, for example, by the position of a representative point of the viewing area 360 in the original image 200 and the shape and size of the viewing area 360.

図10は、データテーブル1000のデータ構造の一例を概略的に示す。データテーブル1000は、秘匿化処理に関する各種の設定を格納する。データテーブル1000は、例えば、設定情報格納部520に格納される。データテーブル1000は、例えば、秘匿化領域決定部842における秘匿化領域の決定に用いられる。データテーブル1000は、例えば、秘匿化態様決定部844における秘匿化の態様の決定に用いられる。 Figure 10 shows an example of the data structure of the data table 1000. The data table 1000 stores various settings related to the anonymization process. The data table 1000 is stored, for example, in the setting information storage unit 520. The data table 1000 is used, for example, to determine the anonymization area in the anonymization area determination unit 842. The data table 1000 is used, for example, to determine the anonymization mode in the anonymization mode determination unit 844.

上述されたとおり、提示情報の価値が高い領域(例えば、高価値領域である。)においては、秘匿化処理が施されることが好ましい。一方、閲覧領域においては、秘匿化処理が施されない又は秘匿化の強度が弱いことが好ましい。 As described above, it is preferable that anonymization be applied to areas where the presented information is highly valuable (e.g., high-value areas). On the other hand, it is preferable that anonymization is not applied or that the strength of anonymization is weak in the viewing area.

そこで、データテーブル1000は、提示情報の価値のレベル1022と、提示情報が配される位置における閲覧レベル1024との組み合わせに応じて、秘匿化処理の要否1026を規定するための情報を格納する。同様に、データテーブル1000は、提示情報の価値のレベル1022と、提示情報が配される位置における閲覧レベル1024との組み合わせに応じて、秘匿化の態様1028を規定するための情報を格納する。 The data table 1000 stores information for specifying whether or not anonymization processing is required 1026, depending on the combination of the value level 1022 of the presented information and the viewing level 1024 at the position where the presented information is located. Similarly, the data table 1000 stores information for specifying the mode of anonymization 1028, depending on the combination of the value level 1022 of the presented information and the viewing level 1024 at the position where the presented information is located.

例えば、特定の提示情報の価値のレベルが最大である場合には、当該特定の提示情報が配された位置における閲覧レベルによらず、当該特定の提示情報に対して秘匿化処理が施される。また、上記の特定の提示情報の漏洩を確実に防止することを目的として、当該特定の提示情報が全く開示されないように、秘匿化の態様が決定される。 For example, when the value level of a particular presented information is at its maximum, the particular presented information is anonymized regardless of the viewing level at the position where the particular presented information is located. In addition, in order to reliably prevent leakage of the particular presented information, the manner of anonymization is determined so that the particular presented information is not disclosed at all.

例えば、特定の提示情報の価値のレベルが最小である場合には、当該特定の提示情報が配された位置における閲覧レベルによらず、当該特定の提示情報に対しては秘匿化処理が施されない。例えば、特定の提示情報が配された位置における閲覧レベルが最大である場合には、当該特定の提示情報の価値によらず、当該特定の提示情報に対しては秘匿化処理が施されない。 For example, if the value level of a particular presentation information is at a minimum, then the specific presentation information is not anonymized regardless of the viewing level at the location where the specific presentation information is placed. For example, if the viewing level at the location where the specific presentation information is placed is at a maximum, then the specific presentation information is not anonymized regardless of the value of the specific presentation information.

図11は、漏洩防止支援部586における情報処理の一例を概略的に示す。本実施形態によれば、ユーザ端末120のユーザ22の背後に、ユーザ22以外の人物24が存在する場合を例として、情報漏洩を防止するための特定の行動をユーザに促すための処理の概要が説明される。 Figure 11 shows an example of information processing in the leak prevention support unit 586. According to this embodiment, an overview of the processing for encouraging the user to take a specific action to prevent information leakage is explained using an example in which a person 24 other than the user 22 of the user terminal 120 is present behind the user 22.

本実施形態において、人物24は、ユーザ22の左後ろに存在する。そのため、ユーザ22が、ユーザ端末120を時計周りに水平に回転させると、人物24は、表示領域142を容易に閲覧することができるようになる。一方、ユーザ22が、ユーザ端末120を反時計周りに水平に回転させると、人物24による表示領域142の閲覧が困難になる。 In this embodiment, the person 24 is located to the left and behind the user 22. Therefore, when the user 22 rotates the user terminal 120 horizontally in a clockwise direction, the person 24 can easily view the display area 142. On the other hand, when the user 22 rotates the user terminal 120 horizontally in a counterclockwise direction, it becomes difficult for the person 24 to view the display area 142.

そこで、本実施形態によれば、漏洩防止支援部586は、出力画像生成部588を制御して、表示領域142の一部に誘導画像1118を表示させることで、ユーザの行動をコントロールする。具体的には、漏洩防止支援部586は、誘導画像1118の表示位置を調整することで、ユーザが、ユーザ端末120を反時計周りに水平に回転させることを促す。このように、漏洩防止支援部586は、誘導画像1118を用いて、ユーザ端末120の水平方向の向きの変更を促すことができる。 Therefore, according to this embodiment, the leakage prevention support unit 586 controls the output image generation unit 588 to display the guidance image 1118 in a part of the display area 142, thereby controlling the user's behavior. Specifically, the leakage prevention support unit 586 adjusts the display position of the guidance image 1118 to encourage the user to rotate the user terminal 120 horizontally counterclockwise. In this way, the leakage prevention support unit 586 can use the guidance image 1118 to encourage the user to change the horizontal orientation of the user terminal 120.

漏洩防止支援部586は、まず、カメラ154が撮像した画像のデータを取得する。漏洩防止支援部586は、カメラ154が撮像した画像を解析して、表示領域142の周囲に2以上の人物が存在するか否かを判定する。表示領域142の周囲に2以上の人物が存在する場合、漏洩防止支援部586は、人物同士の相対的な位置関係を特定する。漏洩防止支援部586は、物同士の相対的な位置関係に基づいて、情報漏洩がより抑制されるユーザ端末120の回転方向を決定する。上述されたとおり、本実施形態においては、反時計回りに水平に回転することで、情報漏洩がより抑制される。 The leakage prevention support unit 586 first acquires data of the image captured by the camera 154. The leakage prevention support unit 586 analyzes the image captured by the camera 154 to determine whether or not two or more people are present around the display area 142. If two or more people are present around the display area 142, the leakage prevention support unit 586 identifies the relative positional relationship between the people. Based on the relative positional relationship between the objects, the leakage prevention support unit 586 determines the rotation direction of the user terminal 120 in which information leakage is further suppressed. As described above, in this embodiment, information leakage is further suppressed by rotating horizontally counterclockwise.

漏洩防止支援部586は、出力画像生成部588を制御して、表示領域142に画像1102を出力させる。画像1102においては、画像出力領域214の右側の一部が誘導画像1118により覆われる。これにより、漏洩防止支援部586は、ユーザに対して、ユーザ端末120を反時計回りに回転させることを促すことができる。 The leak prevention support unit 586 controls the output image generation unit 588 to output the image 1102 to the display area 142. In the image 1102, a portion of the right side of the image output area 214 is covered by the guidance image 1118. This allows the leak prevention support unit 586 to prompt the user to rotate the user terminal 120 counterclockwise.

ユーザが、ユーザ端末120を反時計回りに回転させた場合、漏洩防止支援部586は、出力画像生成部588を制御して、表示領域142に画像1104を出力させる。画像1104には誘導画像1118が表示されておらず、ユーザは、通常通り、作業を続行することができる。 When the user rotates the user terminal 120 counterclockwise, the leakage prevention support unit 586 controls the output image generation unit 588 to output the image 1104 in the display area 142. The guidance image 1118 is not displayed in the image 1104, and the user can continue working as usual.

一方、ユーザが、ユーザ端末120を時計回りに回転させた場合、漏洩防止支援部586は、出力画像生成部588を制御して、表示領域142に画像1106を出力させる。画像1106においては、画像1102と比較してより多くの部分が誘導画像1118により覆われる。これにより、漏洩防止支援部586は、ユーザに対して、ユーザ端末120を反時計回りに回転させることを促すことができる。 On the other hand, when the user rotates the user terminal 120 clockwise, the leakage prevention support unit 586 controls the output image generation unit 588 to output the image 1106 to the display area 142. A larger portion of the image 1106 is covered by the guidance image 1118 compared to the image 1102. This allows the leakage prevention support unit 586 to prompt the user to rotate the user terminal 120 counterclockwise.

図12は、漏洩防止支援部586における情報処理の他の例を概略的に示す。本実施形態によれば、閲覧領域360の範囲を自動的に調整するための処理の概要が説明される。 Figure 12 shows an outline of another example of information processing in the leak prevention support unit 586. According to this embodiment, an overview of processing for automatically adjusting the range of the viewing area 360 is described.

本実施形態によれば、時刻taにおいて、閲覧領域360が画像出力領域214の右下の端部に位置している。そこで、漏洩防止支援部586は、閲覧領域360の位置を徐々に表示領域142の中央に近づけることを決定する。漏洩防止支援部586は、閲覧領域360の移動に伴い、閲覧領域360に対応するウインドウ240の位置も移動させる。 According to this embodiment, at time ta, the viewing area 360 is located at the bottom right edge of the image output area 214. Therefore, the leakage prevention support unit 586 decides to gradually move the position of the viewing area 360 closer to the center of the display area 142. As the viewing area 360 moves, the leakage prevention support unit 586 also moves the position of the window 240 corresponding to the viewing area 360.

本実施形態によれば、漏洩防止支援部586は、例えば、時刻taから時刻tbにかけて、ウインドウ240及び閲覧領域360の画像出力領域214が、右下端部から中央下部に移動するように、出力画像生成部588を制御する。同様に、漏洩防止支援部586は、時刻tbから時刻tcにかけて、ウインドウ240及び閲覧領域360が、中央下部から中央に移動するように、出力画像生成部588を制御する。 According to this embodiment, the leak prevention support unit 586 controls the output image generation unit 588 so that, for example, the image output area 214 of the window 240 and the viewing area 360 moves from the lower right edge to the lower center from time ta to time tb. Similarly, the leak prevention support unit 586 controls the output image generation unit 588 so that the window 240 and the viewing area 360 moves from the lower center to the center from time tb to time tc.

(別実施形態の一例)
本実施形態においては、閲覧領域360の位置を自動的に移動させることで、閲覧領域360の範囲を自動的に調整する場合を例として、閲覧領域360の範囲を自動的に調整するための処理の概要が説明された。しかしながら、閲覧領域360の範囲を自動的に調整するための処理は、本実施形態に限定されない。
(An example of another embodiment)
In the present embodiment, an overview of the process for automatically adjusting the range of viewing area 360 has been described by taking as an example a case in which the range of viewing area 360 is automatically adjusted by automatically moving the position of viewing area 360. However, the process for automatically adjusting the range of viewing area 360 is not limited to the present embodiment.

他の実施形態において、秘匿化処理部584又は漏洩防止支援部586は、秘匿化処理に伴う表示の遅延を考慮して、閲覧領域360の範囲を調整してよい。上述されたとおり、本実施形態に係るユーザ端末120によれば、秘匿化されるべき提示情報自体の位置の移動に伴い、閲覧領域360の範囲も変動する。例えば、再生中の動画の一部が秘匿化される場合、又は、編集中の文書の一部が秘匿化される場合、秘匿化されるべき提示情報の位置が変動する。 In other embodiments, the anonymization processing unit 584 or the leak prevention support unit 586 may adjust the range of the viewing area 360 taking into account the display delay associated with the anonymization process. As described above, according to the user terminal 120 of this embodiment, the range of the viewing area 360 also changes as the position of the presentation information itself to be anonymized moves. For example, when a part of a video being played is anonymized, or when a part of a document being edited is anonymized, the position of the presentation information to be anonymized changes.

そこで、秘匿化処理部584又は漏洩防止支援部586は、例えば、まず、秘匿化されるべき提示情報の移動ベクトルを推定する。また、秘匿化処理部584又は漏洩防止支援部586は、表示の遅延時間を推定する。次に、秘匿化処理部584又は漏洩防止支援部586は、上記の移動ベクトル及び遅延時間に基づいて、上記の遅延時間が経過した時刻における、秘匿化されるべき提示情報の位置を推定する。秘匿化処理部584又は漏洩防止支援部586は、上記の推定された位置に基づいて、閲覧領域360の範囲、又は、秘匿化用のオブジェクトを重畳させる範囲を決定する。 The anonymization processing unit 584 or the leakage prevention support unit 586, for example, first estimates a movement vector of the presentation information to be anonymized. In addition, the anonymization processing unit 584 or the leakage prevention support unit 586 estimates a display delay time. Next, the anonymization processing unit 584 or the leakage prevention support unit 586 estimates the position of the presentation information to be anonymized at the time when the delay time has elapsed based on the movement vector and the delay time. Based on the estimated position, the anonymization processing unit 584 or the leakage prevention support unit 586 determines the range of the viewing area 360 or the range in which the anonymization object is to be superimposed.

上記の移動ベクトルは、例えば、画像認識により物体のインスタンスを特定し、2つの時間での移動ベクトルを推定することにより決定される。上記の移動ベクトルは、例えば、2つの時間での、ある画像RECT単位(4角形)のBOX範囲で、階調の勾配状態をたよりに、その一致する座標変換行列RT又は偏差が最小となる)座標変換行列RTを類推することにより導出される。 The above movement vector is determined, for example, by identifying an instance of an object through image recognition and estimating the movement vector at two times. The above movement vector is derived, for example, by inferring the matching coordinate transformation matrix RT or the coordinate transformation matrix RT with the smallest deviation based on the gradation gradient state in a BOX range of a certain image RECT unit (rectangle) at two times.

図13は、元画像200の分割方法の他の例を概略的に示す。本実施形態においては、画像出力領域214が複数の単位領域1310に分割される。複数の単位領域1310は、例えば、同一の形状及び大きさを有する。 Figure 13 shows a schematic diagram of another example of a method for dividing the original image 200. In this embodiment, the image output area 214 is divided into a plurality of unit areas 1310. The plurality of unit areas 1310 have, for example, the same shape and size.

本実施形態において、高価値領域決定部622は、複数の単位領域1310のそれぞれについて、当該領域が高価値領域に該当するか否かを判定してよい。価値決定部624は、複数の単位領域1310のそれぞれについて、当該領域の内部に含まれる提示情報の価値を決定してよい。 In this embodiment, the high value area determination unit 622 may determine whether each of the multiple unit areas 1310 corresponds to a high value area. The value determination unit 624 may determine the value of the presented information contained within each of the multiple unit areas 1310.

なお、他の実施形態によれば、まず、価値決定部624が、複数の単位領域1310のそれぞれについて、当該領域の内部に含まれる提示情報の価値を決定する。次に、高価値領域決定部622は、複数の単位領域1310のそれぞれの価値に基づいて、複数の単位領域1310のそれぞれが高価値領域であるか否かを決定する。 According to another embodiment, the value determination unit 624 first determines the value of the presented information contained within each of the multiple unit areas 1310. Next, the high value area determination unit 622 determines whether each of the multiple unit areas 1310 is a high value area based on the value of each of the multiple unit areas 1310.

本実施形態において、閲覧領域決定部832は、複数の単位領域1310のそれぞれについて、当該領域が閲覧領域に該当するか否かを判定してよい。閲覧レベル決定部834は、複数の単位領域1310のそれぞれについて、閲覧レベルを決定してよい。閲覧レベル決定部834は、複数の単位領域1310のうち、閲覧領域に該当すると判定され領域について、閲覧レベルを決定してもよい。 In this embodiment, the viewing area determination unit 832 may determine whether or not each of the multiple unit areas 1310 corresponds to a viewing area. The viewing level determination unit 834 may determine a viewing level for each of the multiple unit areas 1310. The viewing level determination unit 834 may determine a viewing level for an area of the multiple unit areas 1310 that is determined to correspond to a viewing area.

本実施形態において、秘匿化領域決定部842は、複数の単位領域1310のそれぞれについて、当該領域が秘匿化領域に該当するか否かを判定してよい。秘匿化態様決定部844は、複数の単位領域1310のそれぞれについて、秘匿化の態様を決定してよい。秘匿化態様決定部844は、複数の単位領域1310のうち、秘匿化領域に該当すると判定され領域について、秘匿化の態様を決定してもよい。 In this embodiment, the concealment area determination unit 842 may determine, for each of the multiple unit areas 1310, whether or not the area corresponds to a concealment area. The concealment mode determination unit 844 may determine the concealment mode for each of the multiple unit areas 1310. The concealment mode determination unit 844 may determine the concealment mode for an area among the multiple unit areas 1310 that is determined to correspond to a concealment area.

単位領域1310は、区画の一例であってよい。 The unit area 1310 may be an example of a partition.

図14は、本発明の複数の態様が全体的又は部分的に具現化されてよいコンピュータ3000の一例を示す。情報漏洩抑制システム100の少なくとも一部は、コンピュータ3000により実現されてよい。例えば、ユーザ端末120の少なくとも一部が、コンピュータ3000又はその一部により実現される。例えば、ユーザ端末120の少なくとも一部が、制御装置170が、コンピュータ3000又はその一部により実現される。 Figure 14 shows an example of a computer 3000 in which multiple aspects of the present invention may be embodied in whole or in part. At least a part of the information leakage prevention system 100 may be realized by the computer 3000. For example, at least a part of the user terminal 120 is realized by the computer 3000 or a part thereof. For example, at least a part of the user terminal 120 and the control device 170 are realized by the computer 3000 or a part thereof.

コンピュータ3000にインストールされたプログラムは、コンピュータ3000に、本発明の実施形態に係る装置に関連付けられるオペレーション又は当該装置の1又は複数の「部」として機能させ、又は当該オペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ3000に、本発明の実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ3000に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU3012によって実行されてよい。 A program installed on the computer 3000 may cause the computer 3000 to function as or perform operations associated with an apparatus according to an embodiment of the present invention or one or more "parts" of the apparatus, and/or to perform a process or steps of the process according to an embodiment of the present invention. Such a program may be executed by the CPU 3012 to cause the computer 3000 to perform certain operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ3000は、CPU3012、RAM3014、GPU3016、及びディスプレイデバイス3018を含み、それらはホストコントローラ3010によって相互に接続されている。コンピュータ3000はまた、通信インタフェース3022、ハードディスクドライブ3024、DVD-ROMドライブ3026、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ3020を介してホストコントローラ3010に接続されている。コンピュータはまた、ROM3030及びキーボード3042のようなレガシの入出力ユニットを含み、それらは入出力チップ3040を介して入出力コントローラ3020に接続されている。 The computer 3000 according to this embodiment includes a CPU 3012, a RAM 3014, a GPU 3016, and a display device 3018, which are interconnected by a host controller 3010. The computer 3000 also includes input/output units such as a communication interface 3022, a hard disk drive 3024, a DVD-ROM drive 3026, and an IC card drive, which are connected to the host controller 3010 via an input/output controller 3020. The computer also includes legacy input/output units such as a ROM 3030 and a keyboard 3042, which are connected to the input/output controller 3020 via an input/output chip 3040.

CPU3012は、ROM3030及びRAM3014内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。GPU3016は、RAM3014内に提供されるフレームバッファ等又はそれ自体の中に、CPU3012によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス3018上に表示されるようにする。 The CPU 3012 operates according to the programs stored in the ROM 3030 and the RAM 3014, thereby controlling each unit. The GPU 3016 acquires image data generated by the CPU 3012 into a frame buffer or the like provided in the RAM 3014 or into itself, and causes the image data to be displayed on the display device 3018.

通信インタフェース3022は、ネットワークを介して他の電子デバイスと通信する。ハードディスクドライブ3024は、コンピュータ3000内のCPU3012によって使用されるプログラム及びデータを格納する。DVD-ROMドライブ3026は、プログラム又はデータをDVD-ROM3001から読み取り、ハードディスクドライブ3024にRAM3014を介してプログラム又はデータを提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 3022 communicates with other electronic devices via a network. The hard disk drive 3024 stores programs and data used by the CPU 3012 in the computer 3000. The DVD-ROM drive 3026 reads programs or data from the DVD-ROM 3001 and provides the programs or data to the hard disk drive 3024 via the RAM 3014. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM3030はその中に、アクティブ化時にコンピュータ3000によって実行されるブートプログラム等、及び/又はコンピュータ3000のハードウエアに依存するプログラムを格納する。入出力チップ3040はまた、様々な入出力ユニットをパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ3020に接続してよい。 The ROM 3030 stores therein a boot program or the like that is executed by the computer 3000 upon activation, and/or a program that depends on the hardware of the computer 3000. The input/output chip 3040 may also connect various input/output units to the input/output controller 3020 via a parallel port, a serial port, a keyboard port, a mouse port, etc.

プログラムが、DVD-ROM3001又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもあるハードディスクドライブ3024、RAM3014、又はROM3030にインストールされ、CPU3012によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ3000に読み取られ、プログラムと、上記様々なタイプのハードウエアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ3000の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM 3001 or an IC card. The programs are read from the computer-readable storage medium, installed in the hard disk drive 3024, RAM 3014, or ROM 3030, which are also examples of computer-readable storage media, and executed by the CPU 3012. The information processing described in these programs is read by the computer 3000, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information in accordance with the use of the computer 3000.

例えば、通信がコンピュータ3000及び外部デバイス間で実行される場合、CPU3012は、RAM3014にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース3022に対し、通信処理を命令してよい。通信インタフェース3022は、CPU3012の制御の下、RAM3014、ハードディスクドライブ3024、DVD-ROM3001、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 3000 and an external device, CPU 3012 may execute a communication program loaded into RAM 3014 and instruct communication interface 3022 to perform communication processing based on the processing described in the communication program. Under the control of CPU 3012, communication interface 3022 reads transmission data stored in a transmission buffer area provided in RAM 3014, hard disk drive 3024, DVD-ROM 3001, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU3012は、ハードディスクドライブ3024、DVD-ROMドライブ3026(DVD-ROM3001)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM3014に読み取られるようにし、RAM3014上のデータに対し様々なタイプの処理を実行してよい。CPU3012は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 3012 may also cause all or a necessary portion of a file or database stored on an external recording medium such as the hard disk drive 3024, the DVD-ROM drive 3026 (DVD-ROM 3001), an IC card, etc. to be read into the RAM 3014, and perform various types of processing on the data on the RAM 3014. The CPU 3012 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU3012は、RAM3014から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM3014に対しライトバックする。また、CPU3012は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU3012は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored on the recording medium and may undergo information processing. The CPU 3012 may perform various types of processing on the data read from the RAM 3014, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and writes back the results to the RAM 3014. The CPU 3012 may also search for information in a file, database, etc. in the recording medium. For example, when multiple entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 3012 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ3000上又はコンピュータ3000近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それにより、上記のプログラムを、ネットワークを介してコンピュータ3000に提供する。 The above-described program or software module may be stored in a computer-readable storage medium on the computer 3000 or in the vicinity of the computer 3000. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the above-described program to the computer 3000 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。また、技術的に矛盾しない範囲において、特定の実施形態について説明した事項を、他の実施形態に適用することができる。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using an embodiment, the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications or improvements can be made to the above embodiment. Furthermore, the details described for a specific embodiment can be applied to other embodiments to the extent that they are not technically inconsistent. It is clear from the claims that such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in this order.

本願明細書には、例えば、下記の事項が開示されている。
(項目A)
画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成する情報処理装置であって、
前記生成画像に設定された複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出部と、
前記生成画像の一部に配される1以上の位置又は範囲であって、(i)前記画像表示装置のユーザによる入力の位置若しくは範囲、及び/又は、(ii)前記ユーザの視線の位置若しくは範囲である作業位置を特定する作業位置特定部と、
前記価値導出部が導出した前記価値と、前記作業位置特定部が特定した前記作業位置とに基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定部と、
を備える、情報処理装置。
(項目B)
画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成するための方法であって、
前記生成画像に設定された複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出段階と、
前記生成画像の一部に配される1以上の位置又は範囲であって、(i)前記画像表示装置のユーザによる入力の位置若しくは範囲、及び/又は、(ii)前記ユーザの視線の位置若しくは範囲である作業位置を特定する作業位置特定段階と、
前記価値導出部が導出した前記価値と、前記作業位置特定段階において特定された前記作業位置とに基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定段階と、
を有する、方法。
For example, the present specification discloses the following:
(Item A)
An information processing device that conceals a part of a generated image generated by an image generating device and generates a display image to be displayed on an image display device,
a value derivation unit that derives a value of information included in each of at least a portion of the multiple sections set in the generated image;
a work position identification unit that identifies a work position, which is one or more positions or ranges arranged in a part of the generated image, and which is (i) a position or range of an input by a user of the image display device and/or (ii) a position or range of the user's line of sight;
a target area determination unit that determines a target area, which is an area to be concealed, based on the value derived by the value derivation unit and the work position identified by the work position identification unit;
An information processing device comprising:
(Item B)
1. A method for generating a display image to be displayed on an image display device by concealing a part of a generated image generated by an image generating device, comprising:
A value derivation step of deriving a value of information contained in each of at least a portion of the multiple sections set in the generated image;
a work position identification step of identifying one or more positions or ranges arranged in a part of the generated image, the work position being (i) a position or range of an input by a user of the image display device and/or (ii) a position or range of the user's line of sight;
a target area determination step of determining a target area, which is an area to be concealed, based on the value derived by the value derivation unit and the work position identified in the work position identification step;
The method comprising:

本願明細書には、例えば、下記の事項が開示されている。
(項目B-1)
画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成する情報処理装置であって、
前記生成画像を複数の区画に分割する分割部と、
前記複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出部と、
前記生成画像の一部に配される1以上の位置又は範囲であって、(i)前記画像表示装置のユーザによる入力の位置若しくは範囲、及び/又は、(ii)前記ユーザの視線の位置若しくは範囲である作業位置を特定する作業位置特定部と、
前記価値導出部が導出した前記価値と、前記作業位置特定部が特定した前記作業位置とに基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定部と、
を備える、情報処理装置。
(項目B-2)
前記生成画像の一部に配され、前記作業位置を含む領域である作業領域を決定する作業領域決定部をさらに備え、
前記対象領域決定部は、
(a)少なくとも、前記複数の区画のうち、前記作業領域の範囲外に配され、前記価値が予め定められた第1の度合いよりも大きな区画に秘匿化が施されることを決定し、
(b)前記作業領域の内部に、前記複数の区画のうち前記価値が予め定められた第2の度合いよりも大きな区画が含まれていない場合、前記作業領域に秘匿化が施されないことを決定し、
(c)前記作業領域の内部に、前記複数の区画のうち前記価値が前記第2の度合いよりも大きな区画が含まれている場合、少なくとも、前記価値が前記第2の度合いよりも大きな区画に秘匿化が施されることを決定し、
前記第2の度合いは、前記第1の度合いよりも大きい、
項目B-1に記載の情報処理装置。
(項目B-3)
前記作業領域決定部は、前記価値導出部が導出した価値であって、(i)前記複数の区画のうち、前記作業位置を含む区画に含まれる情報の価値、又は、(ii)前記作業位置に含まれる情報の価値に基づいて、前記作業領域の範囲を決定する、
項目B-2に記載の情報処理装置。
(項目B-4)
前記価値導出部が導出した価値であって、前記対象領域に含まれる情報の価値に基づいて、前記対象領域の秘匿化の態様を決定する態様決定部をさらに備える、
項目B-1に記載の情報処理装置。
(項目B-5)
前記ユーザと、前記画像表示装置との距離が予め定められた値よりも小さくなった場合に、前記ユーザの前記画像表示装置への近接を検出する近接検出部をさらに備え、
前記態様決定部は、前記ユーザの前記画像表示装置への近接が検出された場合に、前記作業領域の内部に含まれる文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つの大きさを小さくすることを決定する、
項目B-4に記載の情報処理装置。
(項目B-6)
前記価値導出部は、
前記複数の区画の少なくとも一部について、(a)各区画に含まれる情報の種類、(b)各区画における前記ユーザによるポインティングデバイスの操作履歴、(c)各区画における前記ユーザの視線のトラッキング履歴、(d)各区画が属するウインドウに付与されたフラグ、(e)各区画が属するウインドウに情報を表示するアプリケーションの種類、並びに、(f)各区画が属するウインドウに表示される情報のURIの少なくとも1つに基づいて、各区画に含まれる情報の価値を導出する、
項目B-1に記載の情報処理装置。
(項目B-7)
コンピュータを、項目B-1から項目B-6までの何れか一項に記載の情報処理装置として機能させるためのプログラム。
(項目B-8)
画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成するための方法であって、
コンピュータが、前記生成画像を複数の区画に分割する分割段階と、
前記コンピュータが、前記複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出段階と、
前記コンピュータが、前記生成画像の一部に配される1以上の位置又は範囲であって、(i)前記画像表示装置のユーザによる入力の位置若しくは範囲、及び/又は、(ii)前記ユーザの視線の位置若しくは範囲である作業位置を特定する作業位置特定段階と、
前記コンピュータが、前記価値導出部が導出した前記価値と、前記作業位置特定段階において特定された前記作業位置とに基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定段階と、
を有する、方法。
For example, the present specification discloses the following:
(Item B-1)
An information processing device that conceals a part of a generated image generated by an image generating device and generates a display image to be displayed on an image display device,
A division unit that divides the generated image into a plurality of partitions;
a value derivation unit that derives a value of information included in each of the plurality of sections for at least a portion of the sections;
a work position identification unit that identifies a work position, which is one or more positions or ranges arranged in a part of the generated image, and which is (i) a position or range of an input by a user of the image display device and/or (ii) a position or range of the user's line of sight;
a target area determination unit that determines a target area, which is an area to be concealed, based on the value derived by the value derivation unit and the work position identified by the work position identification unit;
An information processing device comprising:
(Item B-2)
A working area determination unit is further provided that is disposed in a part of the generated image and determines a working area that is an area including the working position,
The target region determination unit is
(a) determining that at least one of the plurality of sections is to be concealed, the section being located outside the range of the working area and having a value greater than a predetermined first degree;
(b) determining that the work area is not to be concealed if the work area does not include any of the plurality of areas whose value is greater than a second predetermined degree;
(c) when the working area includes a section among the plurality of sections whose value is greater than the second degree, determining that at least the section whose value is greater than the second degree is to be concealed;
The second degree is greater than the first degree.
The information processing device according to item B-1.
(Item B-3)
The work area determination unit determines a range of the work area based on the value derived by the value derivation unit, which is (i) a value of information included in a section including the work position among the plurality of sections, or (ii) a value of information included in the work position.
The information processing device according to item B-2.
(Item B-4)
and a mode determining unit that determines a mode of concealment of the target region based on the value derived by the value derivation unit, the value being a value of the information included in the target region.
The information processing device according to item B-1.
(Item B-5)
a proximity detection unit that detects the proximity of the user to the image display device when a distance between the user and the image display device becomes smaller than a predetermined value,
the mode determination unit determines, when the approach of the user to the image display device is detected, to reduce a size of at least one selected from the group consisting of a character string, a picture, a diagram, a table, a photograph, a video, and a part thereof included in the working area.
The information processing device according to item B-4.
(Item B-6)
The value derivation unit,
Deriving a value of the information contained in each partition based on at least one of (a) the type of information contained in each partition, (b) the user's pointing device operation history in each partition, (c) the user's gaze tracking history in each partition, (d) a flag assigned to the window to which each partition belongs, (e) the type of application that displays information in the window to which each partition belongs, and (f) the URI of the information displayed in the window to which each partition belongs, for at least a portion of the plurality of partitions.
The information processing device according to item B-1.
(Item B-7)
A program for causing a computer to function as the information processing device according to any one of items B-1 to B-6.
(Item B-8)
1. A method for generating a display image to be displayed on an image display device by concealing a part of a generated image generated by an image generating device, comprising:
A segmentation step in which a computer divides the generated image into a plurality of partitions;
A value derivation step in which the computer derives a value of information included in each of the plurality of sections for at least a portion of the plurality of sections;
A work position identification step in which the computer identifies a work position, which is one or more positions or ranges arranged in a part of the generated image, and which is (i) a position or range of an input by a user of the image display device and/or (ii) a position or range of the user's line of sight;
a target area determination step in which the computer determines a target area, which is an area to be concealed, based on the value derived by the value derivation unit and the work position identified in the work position identification step;
The method comprising:

22 ユーザ
24 人物
100 情報漏洩抑制システム
120 ユーザ端末
130 筐体
140 表示装置
142 表示領域
150 環境センサ
152 距離センサ
154 カメラ
156 電波検知機
160 入力装置
170 制御装置
200 元画像
210 ウインドウ
212 制御領域
214 画像出力領域
216 提示情報
222 オブジェクト
224 オブジェクト
230 ウインドウ
232 制御領域
234 画像出力領域
236 提示情報
240 ウインドウ
242 制御領域
244 画像出力領域
246 提示情報
300 出力画像
318 オブジェクト
326 オブジェクト
328 オブジェクト
338 オブジェクト
348 オブジェクト
360 閲覧領域
362 閲覧位置
520 設定情報格納部
532 プログラム制御部
534 ウインドウ制御部
540 入力制御部
550 出力制御部
560 元画像生成部
572 ウインドウ情報取得部
574 視線情報取得部
576 操作情報取得部
580 画像処理部
582 価値マップ生成部
584 秘匿化処理部
586 漏洩防止支援部
588 出力画像生成部
622 高価値領域決定部
624 価値決定部
700 データテーブル
722 領域ID
724 範囲
726 価値
820 モード決定部
832 閲覧領域決定部
834 閲覧レベル決定部
842 秘匿化領域決定部
844 秘匿化態様決定部
900 データテーブル
922 領域ID
924 範囲
926 閲覧レベル
1000 データテーブル
1022 レベル
1024 閲覧レベル
1026 要否
1028 態様
1102 画像
1104 画像
1106 画像
1118 誘導画像
1310 単位領域
3000 コンピュータ
3001 DVD-ROM
3010 ホストコントローラ
3012 CPU
3014 RAM
3016 GPU
3018 ディスプレイデバイス
3020 入出力コントローラ
3022 通信インタフェース
3024 ハードディスクドライブ
3026 DVD-ROMドライブ
3030 ROM
3040 入出力チップ
3042 キーボード
22 User 24 Person 100 Information leakage prevention system 120 User terminal 130 Housing 140 Display device 142 Display area 150 Environmental sensor 152 Distance sensor 154 Camera 156 Radio wave detector 160 Input device 170 Control device 200 Original image 210 Window 212 Control area 214 Image output area 216 Presentation information 222 Object 224 Object 230 Window 232 Control area 234 Image output area 236 Presentation information 240 Window 242 Control area 244 Image output area 246 Presentation information 300 Output image 318 Object 326 Object 328 Object 338 Object 348 Object 360 Viewing area 362 Viewing position 520 Setting information storage unit 532 Program control unit 534 Window control unit 540 Input control unit 550 Output control unit 560 Original image generation unit 572 Window information acquisition unit 574 Line-of-sight information acquisition unit 576 Operation information acquisition unit 580 Image processing unit 582 Value map generation unit 584 Concealment processing unit 586 Leakage prevention support unit 588 Output image generation unit 622 High-value area determination unit 624 Value determination unit 700 Data table 722 Area ID
724 Range 726 Value 820 Mode determination unit 832 Viewing area determination unit 834 Viewing level determination unit 842 Concealment area determination unit 844 Concealment mode determination unit 900 Data table 922 Area ID
924 Range 926 Viewing level 1000 Data table 1022 Level 1024 Viewing level 1026 Necessity 1028 Mode 1102 Image 1104 Image 1106 Image 1118 Guidance image 1310 Unit area 3000 Computer 3001 DVD-ROM
3010 host controller 3012 CPU
3014 RAM
3016 GPU
3018 Display device 3020 Input/output controller 3022 Communication interface 3024 Hard disk drive 3026 DVD-ROM drive 3030 ROM
3040 Input/Output Chip 3042 Keyboard

Claims (6)

画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成する情報処理装置であって、
前記生成画像の一部に配される1以上の位置又は範囲であって、前記画像表示装置のユーザにより指定又は参照された位置又は範囲である作業位置を特定する作業位置特定部と、
前記生成画像を複数の区画に分割する分割部と、
前記複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出部と、
前記価値導出部が導出した前記価値と、前記作業位置特定部が特定した前記作業位置とに基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定部と、
前記生成画像の一部に配され、前記作業位置を含む領域である作業領域を決定する作業領域決定部と、
を備え、
前記対象領域決定部は、
(a)少なくとも、前記複数の区画のうち、前記作業領域の範囲外に配され、前記価値が予め定められた第1の度合いよりも大きな区画に秘匿化が施されることを決定し、
(b)前記作業領域の内部に、前記複数の区画のうち前記価値が予め定められた第2の度合いよりも大きな区画が含まれていない場合、前記作業領域に秘匿化が施されないことを決定し、
(c)前記作業領域の内部に、前記複数の区画のうち前記価値が前記第2の度合いよりも大きな区画が含まれている場合、少なくとも、前記価値が前記第2の度合いよりも大きな区画に秘匿化が施されることを決定し、
前記第2の度合いは、前記第1の度合いよりも大きい、
報処理装置。
An information processing device that conceals a part of a generated image generated by an image generating device and generates a display image to be displayed on an image display device,
a work position specification unit that specifies a work position, which is one or more positions or ranges arranged in a part of the generated image and is a position or range designated or referenced by a user of the image display device;
A division unit that divides the generated image into a plurality of partitions;
a value derivation unit that derives a value of information included in each of the plurality of sections for at least a portion of the sections;
a target area determination unit that determines a target area, which is an area to be concealed, based on the value derived by the value derivation unit and the work position identified by the work position identification unit;
a work area determination unit that is disposed in a portion of the generated image and that determines a work area that is an area including the work position;
Equipped with
The target region determination unit is
(a) determining that at least one of the plurality of sections is to be concealed, the section being located outside the range of the working area and having a value greater than a predetermined first degree;
(b) determining that the work area is not to be concealed if the work area does not include any of the plurality of areas whose value is greater than a second predetermined degree;
(c) when the working area includes a section among the plurality of sections whose value is greater than the second degree, determining that at least the section whose value is greater than the second degree is to be concealed;
The second degree is greater than the first degree.
Information processing device.
前記作業領域決定部は、前記価値導出部が導出した価値であって、(i)前記複数の区画のうち、前記作業位置を含む区画に含まれる情報の価値、又は、(ii)前記作業位置に含まれる情報の価値に基づいて、前記作業領域の範囲を決定する、
請求項に記載の情報処理装置。
The work area determination unit determines a range of the work area based on the value derived by the value derivation unit, which is (i) a value of information included in a section including the work position among the plurality of sections, or (ii) a value of information included in the work position.
The information processing device according to claim 1 .
前記価値導出部が導出した価値であって、前記対象領域に含まれる情報の価値に基づいて、前記対象領域の秘匿化の態様を決定する態様決定部をさらに備える、
請求項に記載の情報処理装置。
and a mode determination unit that determines a mode of concealment of the target region based on the value derived by the value derivation unit, the value being a value of the information included in the target region.
The information processing device according to claim 1 .
前記ユーザと、前記画像表示装置との距離が予め定められた値よりも小さくなった場合に、前記ユーザの前記画像表示装置への近接を検出する近接検出部をさらに備え、
前記態様決定部は、前記ユーザの前記画像表示装置への近接が検出された場合に、前記作業領域の内部に含まれる文字列、絵、図、表、写真及び動画並びにこれらの一部からなる群から選択される少なくとも1つの大きさを小さくすることを決定する、
請求項に記載の情報処理装置。
a proximity detection unit that detects the proximity of the user to the image display device when a distance between the user and the image display device becomes smaller than a predetermined value,
the mode determination unit determines, when the approach of the user to the image display device is detected, to reduce a size of at least one selected from the group consisting of a character string, a picture, a diagram, a table, a photograph, a video, and a part thereof included in the working area.
The information processing device according to claim 3 .
コンピュータを、請求項1から請求項までの何れか一項に記載の情報処理装置として機能させるためのプログラム。 A program for causing a computer to function as the information processing device according to any one of claims 1 to 4 . 画像生成装置が生成する生成画像の一部を秘匿化して、画像表示装置に表示される表示画像を生成するための方法であって、
コンピュータが、前記生成画像の一部に配される1以上の位置又は範囲であって、前記画像表示装置のユーザにより指定又は参照された位置又は範囲である作業位置を特定する作業位置特定段階と、
前記生成画像を複数の区画に分割する分割段階と、
前記複数の区画の少なくとも一部について、各区画に含まれる情報の価値を導出する価値導出段階と、
前記コンピュータが、前記価値導出段階において導出された前記価値と、前記作業位置特定段階において特定された前記作業位置に基づいて、前記秘匿化が施される領域である対象領域を決定する対象領域決定段階と、
前記コンピュータが、前記生成画像の一部に配され、前記作業位置を含む領域である作業領域を決定する作業領域決定段階と、
を有
前記対象領域決定段階は、
(a)少なくとも、前記複数の区画のうち、前記作業領域の範囲外に配され、前記価値が予め定められた第1の度合いよりも大きな区画に秘匿化が施されることを決定し、
(b)前記作業領域の内部に、前記複数の区画のうち前記価値が予め定められた第2の度合いよりも大きな区画が含まれていない場合、前記作業領域に秘匿化が施されないことを決定し、
(c)前記作業領域の内部に、前記複数の区画のうち前記価値が前記第2の度合いよりも大きな区画が含まれている場合、少なくとも、前記価値が前記第2の度合いよりも大きな区画に秘匿化が施されることを決定する段階
を有し、
前記第2の度合いは、前記第1の度合いよりも大きい、
法。
1. A method for generating a display image to be displayed on an image display device by concealing a part of a generated image generated by an image generating device, comprising:
a work position identification step in which a computer identifies a work position, which is one or more positions or ranges located in a portion of the generated image and which is a position or range designated or referenced by a user of the image display device;
A segmentation step of dividing the generated image into a plurality of partitions;
A value derivation step of deriving a value of information contained in each of the plurality of sections for at least a portion of the plurality of sections;
a target area determination step in which the computer determines a target area, which is an area to be concealed, based on the value derived in the value derivation step and the work position identified in the work position identification step;
A working area determination step in which the computer determines a working area that is a region that is arranged in a part of the generated image and includes the working position;
having
The target region determination step includes:
(a) determining that at least one of the plurality of sections is to be concealed, the section being located outside the range of the working area and having a value greater than a predetermined first degree;
(b) determining that the work area is not to be concealed if the work area does not include any of the plurality of areas whose value is greater than a second predetermined degree;
(c) determining that, when a partition whose value is greater than the second degree is included among the plurality of partitions within the working area, concealment is to be applied to at least the partition whose value is greater than the second degree;
having
The second degree is greater than the first degree.
method .
JP2023102633A 2023-06-22 2023-06-22 Information processing device, program and method Active JP7621423B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023102633A JP7621423B2 (en) 2023-06-22 2023-06-22 Information processing device, program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023102633A JP7621423B2 (en) 2023-06-22 2023-06-22 Information processing device, program and method

Publications (2)

Publication Number Publication Date
JP2025002446A JP2025002446A (en) 2025-01-09
JP7621423B2 true JP7621423B2 (en) 2025-01-24

Family

ID=94170023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023102633A Active JP7621423B2 (en) 2023-06-22 2023-06-22 Information processing device, program and method

Country Status (1)

Country Link
JP (1) JP7621423B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018233A (en) 2005-07-07 2007-01-25 Casio Comput Co Ltd Display control apparatus and program
JP2008035494A (en) 2006-06-30 2008-02-14 Ricoh Co Ltd Image processing apparatus and image processing method
JP2008244975A (en) 2007-03-28 2008-10-09 Nec Corp Encryption communication system, encryption communication method, encryption device, and decryption device
JP2009200847A (en) 2008-02-21 2009-09-03 Fujitsu Ltd Image encryption apparatus, image decryption apparatus, image encryption method, image decryption method, and image encryption program
WO2009110055A1 (en) 2008-03-03 2009-09-11 株式会社Pfu Image processing system, method, and program
JP2013011669A (en) 2011-06-28 2013-01-17 Kyocera Corp Electronic display device
JP2015191487A (en) 2014-03-28 2015-11-02 株式会社日立ソリューションズ presentation server and mobile terminal
JP2017538190A (en) 2014-10-14 2017-12-21 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited On-screen confidential information processing method and apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007018233A (en) 2005-07-07 2007-01-25 Casio Comput Co Ltd Display control apparatus and program
JP2008035494A (en) 2006-06-30 2008-02-14 Ricoh Co Ltd Image processing apparatus and image processing method
JP2008244975A (en) 2007-03-28 2008-10-09 Nec Corp Encryption communication system, encryption communication method, encryption device, and decryption device
JP2009200847A (en) 2008-02-21 2009-09-03 Fujitsu Ltd Image encryption apparatus, image decryption apparatus, image encryption method, image decryption method, and image encryption program
WO2009110055A1 (en) 2008-03-03 2009-09-11 株式会社Pfu Image processing system, method, and program
JP2013011669A (en) 2011-06-28 2013-01-17 Kyocera Corp Electronic display device
JP2015191487A (en) 2014-03-28 2015-11-02 株式会社日立ソリューションズ presentation server and mobile terminal
JP2017538190A (en) 2014-10-14 2017-12-21 アリババ・グループ・ホールディング・リミテッドAlibaba Group Holding Limited On-screen confidential information processing method and apparatus

Also Published As

Publication number Publication date
JP2025002446A (en) 2025-01-09

Similar Documents

Publication Publication Date Title
US12039108B2 (en) Data and user interaction based on device proximity
US11586336B2 (en) Private control interfaces for extended reality
US11625091B2 (en) Obfuscated control interfaces for extended reality
US11574081B2 (en) User interface manipulation in a foldable screen device
US10782858B2 (en) Extended reality information for identified objects
KR102636243B1 (en) Method for processing image and electronic device thereof
CN104238739A (en) Visibility improvement method based on eye tracking and electronic device
CN110352446A (en) For obtaining the method and apparatus and its recording medium of image
US9715266B2 (en) Attention-based rendering and fidelity
CN109804618B (en) Electronic device and computer-readable recording medium for displaying images
CN111541907A (en) Item display method, device, equipment and storage medium
JP7621423B2 (en) Information processing device, program and method
US8713670B2 (en) Ascertaining presentation format based on device primary control determination
JP7607724B1 (en) Information processing device, program and method
EP3791253B1 (en) Electronic device and method for providing virtual input tool
CN110134228B (en) Information processing method, information processing apparatus, and product for information processing
US20150199007A1 (en) Method and apparatus for processing inputs in an electronic device
US12423907B2 (en) Displaying a rendered volumetric representation according to different display modes
CN117369634A (en) Display method, device, electronic device and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20241001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250114

R150 Certificate of patent or registration of utility model

Ref document number: 7621423

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150