JP2009146012A - Three-dimensional shape display and recording device - Google Patents
Three-dimensional shape display and recording device Download PDFInfo
- Publication number
- JP2009146012A JP2009146012A JP2007320286A JP2007320286A JP2009146012A JP 2009146012 A JP2009146012 A JP 2009146012A JP 2007320286 A JP2007320286 A JP 2007320286A JP 2007320286 A JP2007320286 A JP 2007320286A JP 2009146012 A JP2009146012 A JP 2009146012A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- frame image
- display
- unit
- access
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 238000009434 installation Methods 0.000 description 3
- 230000003028 elevating effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、三次元形状の対象物を複数の静止画像によってユーザーにより要求された様々な方向に回転させて見せるとともに、対象物を回転させて表示したときに表示された静止画像ごとの表示履歴を作成する三次元形状表示記録装置に関する。 The present invention shows a display history for each still image displayed when a three-dimensional object is rotated and displayed in various directions requested by a user using a plurality of still images. The present invention relates to a three-dimensional shape display recording apparatus for creating
三次元形状の対象物を表示させる手段として三次元コンピュータグラフィックス(以下三次元CGという)が知られており、産業、ゲーム、映画等多くの分野で活用されている。 Three-dimensional computer graphics (hereinafter referred to as three-dimensional CG) is known as means for displaying a three-dimensional object, and is used in many fields such as industry, games, and movies.
三次元CGの特徴としては、ユーザーの要求に応じて、対象物の画像を指定された視点から表示させたり、画面上で回転させることが可能であることが挙げられる。この特徴を利用して、三次元形状の表示の態様を解析すれば、ユーザーの趣向に関する有用なデータを得ることが可能であると考えられる。 A feature of the three-dimensional CG is that an image of an object can be displayed from a designated viewpoint or rotated on a screen in accordance with a user request. By using this feature and analyzing the display mode of the three-dimensional shape, it is considered that useful data relating to the user's preferences can be obtained.
三次元形状の対象物をユーザーの要求する表示態様で表示させた場合には、ユーザーは対象物のうちの注目する部分を繰り返し表示させたり、その部分で回転を停止させるなどする場合が多い。すなわち、その表示態様にユーザーの趣向が大きく反映される。したがって、表示態様からユーザーの趣向について客観的に評価するデータが得られれば、例えば物品等のデザイン開発において有用となる。 When a three-dimensional object is displayed in a display mode requested by the user, the user often repeatedly displays a target part of the object or stops rotation at that part. That is, the user's preference is greatly reflected in the display mode. Therefore, if data that objectively evaluates the user's preferences can be obtained from the display mode, it will be useful in, for example, design development of articles and the like.
二次元の画像や動画を表示する装置については、ユーザーの趣向について種々の要素から客観的な評価を試み、それを利用する技術が公知となっている(例えば特許文献1)。特許文献1には動画像記録再生装置が記載されている。特許文献1に記載の技術は、動画像の録画、及び再生処理を行う録画再生部と、録画再生部を制御する制御部と、動画像を格納する動画記憶装置と、制御部が使用する制御情報を格納する制御情報記憶部とを備え、録画すべき動画をシーンの変化毎に分割し、分割した各シーンから、代表画面を選出し、ユーザー入力操作種別に基づいて、各シーンの重要度を判別し、重要度の高いシーンの代表画面を、画像要約情報として表示する。
しかしながら、特許文献1に記載された発明は三次元CGを対象とするものではなく、当該先行技術をもって三次元形状の対象物を表示させ、ユーザーの趣向を評価しようとしても、ユーザーに大きな負担を強いることになるほか、ユーザーの趣向を客観的に評価することは難しい。すなわち、特許文献1に記載の動画像記録再生装置においては、ユーザーが逆再生等を行うことがあっても、原則としては、ユーザーは分割した動画像を任意の順番で再生するのではなく、所定の順序で動画を再生する。したがって、三次元形状を回転させて表示させた場合にも、各部分の表示される順序は決まっているため、ユーザーは趣向に合った角度・位置を見出すまでに多くの時間、操作を要する。また、趣向に合致した角度・位置に至るまでの動画像についても必然的に再生回数等が多くなるため、ユーザーの趣向を正確に評価することは困難である。 However, the invention described in Patent Document 1 is not intended for three-dimensional CG, and even if an attempt is made to display a three-dimensional object with the prior art and evaluate the user's taste, a large burden is placed on the user. Besides being forced, it is difficult to objectively evaluate user preferences. That is, in the moving image recording / reproducing apparatus described in Patent Document 1, even if the user performs reverse reproduction or the like, in principle, the user does not reproduce the divided moving images in an arbitrary order. Play videos in a predetermined order. Therefore, even when the three-dimensional shape is rotated and displayed, the order in which the portions are displayed is determined, and the user needs a lot of time and operation to find the angle and position that suits his taste. In addition, since the number of times of reproduction is inevitably increased for a moving image up to an angle / position that matches the taste, it is difficult to accurately evaluate the user's taste.
このように、三次元形状で表示した対象物のうち、ユーザーの趣向を反映して、どの部分が客観的に注目されているかを評価する装置は従来なかった。 As described above, there has been no device that evaluates which part of a target object displayed in a three-dimensional shape is objectively focused, reflecting the user's preference.
よって、本発明は、三次元形状の対象物の回転表示させた場合に、ユーザーが注目した位置を知ることができる情報を取得することが可能な三次元形状表示記録装置を提供することを目的とする。 Therefore, the present invention has an object of providing a three-dimensional shape display recording apparatus capable of acquiring information that allows the user to know the position that the user has noticed when rotating a three-dimensional object. And
本発明の三次元形状表示記録装置は、三次元形状の対象物の多数の角度から取得した画像からなる複数のフレーム画像データにより構成されたフレーム画像データ群を格納した画像管理部と、ユーザー装置からのフレーム画像データの選択が入力される入力部と、入力部から入力された選択されたフレーム画像データを、画像格納部から取得するとともに、選択されたフレーム画像データのアクセス事実とアクセス時間を出力する画像表示制御部と、選択されたフレーム画像データのアクセス事実及びアクセス時間に基づいて、フレーム画像データごとの表示時間と表示回数を算出し、表示時間と表示回数とを出力するアクセス記録取得部と、各フレーム画像データごとの表示時間と表示回数について統計学的数学処理を施し、処理結果を出力するアクセス記録解析部とを有することを特徴とする。 The three-dimensional shape display recording apparatus of the present invention includes an image management unit storing a frame image data group composed of a plurality of frame image data composed of images acquired from a number of angles of a three-dimensional shape object, and a user device The input unit to which the selection of the frame image data is input, and the selected frame image data input from the input unit is acquired from the image storage unit, and the access fact and access time of the selected frame image data are obtained. Access record acquisition that calculates the display time and the number of times of display for each frame image data based on the image display control unit to be output, the access fact and the access time of the selected frame image data, and outputs the display time and the number of times of display Statistical mathematics processing is performed on the display time and display count for each frame image data, and the processing results are output. And having an access record analyzer for.
本発明によれば、ユーザー装置に表示される静止画像ごとの表示履歴を作成することにより、当該表示履歴によって三次元形状の対象物を見るときのユーザーが注目した角度、方向を正確に判別することができるため、ユーザーの注目を集めた部分についての客観的な情報を得ることができる。 According to the present invention, by creating a display history for each still image displayed on the user device, the display history accurately determines the angle and direction that the user has noticed when viewing a three-dimensional object. Therefore, it is possible to obtain objective information about a part that attracts the user's attention.
以下、図面を用いて本発明の好ましい実施形態について詳しく説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本実施形態の三次元形状表示記録装置を含むシステムの概要を示す図である。図に示すように、本実施形態の三次元表示記録装置100にはインターネット等のネットワーク300を介して複数のユーザー装置200が接続している。ユーザー装置200は、例えば、ユーザーが所有するパーソナルコンピュータや携帯端末であればよい。 FIG. 1 is a diagram showing an outline of a system including a three-dimensional shape display recording apparatus of the present embodiment. As shown in the figure, a plurality of user devices 200 are connected to the three-dimensional display recording device 100 of the present embodiment via a network 300 such as the Internet. The user device 200 may be a personal computer or a mobile terminal owned by the user, for example.
ユーザーは、ネットワーク300を介して三次元表示記録装置100にアクセスすることが可能である。また、ユーザーは、ユーザー装置200により所定のデータ入力や操作を三次元表示記録装置100に対して行うとともに、三次元表示記録装置100から出力された画像を閲覧することができる。 The user can access the 3D display recording apparatus 100 via the network 300. In addition, the user can perform predetermined data input and operation on the 3D display recording apparatus 100 using the user apparatus 200 and can browse images output from the 3D display recording apparatus 100.
図2は、本実施形態の三次元形状表示記録装置の機能的構成を示すブロック図である。本実施形態の三次元形状表示記録装置100は、それぞれの表示モードにおいて少なくとも1つ以上の静止画像を画像表示部に出力する。このとき、画像表示部に出力される静止画像ごとの表示履歴を作成することにより、当該表示履歴によって三次元形状の対象物を見るときのユーザーが注目する位置等を正確に判別することができるため、ユーザーの注目を集めた部分についての客観的な情報を得ることができる。 FIG. 2 is a block diagram showing a functional configuration of the three-dimensional shape display recording apparatus of the present embodiment. The three-dimensional shape display recording apparatus 100 of the present embodiment outputs at least one or more still images to the image display unit in each display mode. At this time, by creating a display history for each still image output to the image display unit, it is possible to accurately determine a position or the like to which the user pays attention when viewing a three-dimensional object based on the display history. Therefore, it is possible to obtain objective information about the part that attracts the user's attention.
本実施形態の三次元形状表示記録装置100は、画像管理部30と、画像表示制御部40と、画像表示部50と、アクセス記録取得部60と、出力部70と、アクセス記録解析部80とを備える。 The three-dimensional shape display recording apparatus 100 of the present embodiment includes an image management unit 30, an image display control unit 40, an image display unit 50, an access record acquisition unit 60, an output unit 70, and an access record analysis unit 80. Is provided.
入力部20は、ユーザー装置200と接続し、ユーザー装置200の入力手段(例えば、マウス、キーボード、マイクなど)からの三次元形状の対象物についての表示させたい所定角度から見たときの画像及び表示態様の指示が入力されるものであり、ユーザー装置200から指示が入力されると、当該指示を画像表示制御部40に出力する。 The input unit 20 is connected to the user device 200, and when viewed from a predetermined angle to be displayed on a three-dimensional object from an input unit (eg, mouse, keyboard, microphone, etc.) of the user device 200, and A display mode instruction is input, and when the instruction is input from the user device 200, the instruction is output to the image display control unit 40.
画像管理部30は、格納部31と管理部32とを備える。格納部31は、三次元形状の対象物を、例えば、上下アングルを変えつつ全方位から所定の角度間隔で撮像することにより取得された複数のフレーム画像データ(以下、フレーム画像データ群ともいう)を格納する。 The image management unit 30 includes a storage unit 31 and a management unit 32. The storage unit 31 has a plurality of frame image data (hereinafter, also referred to as a frame image data group) acquired by imaging a three-dimensional object, for example, at predetermined angle intervals from all directions while changing the vertical angle. Is stored.
図3は、格納部31に格納されたフレーム画像データ群の構成の一例を示す説明図である。図に示すように、フレーム画像データ群はマトリクス状に整列された複数のフレーム画像データにより構成される。なお、図3では、三次元形状の対象物の例として、自動車の例を示している。 FIG. 3 is an explanatory diagram illustrating an example of the configuration of the frame image data group stored in the storage unit 31. As shown in the figure, the frame image data group is composed of a plurality of frame image data arranged in a matrix. In addition, in FIG. 3, the example of a motor vehicle is shown as an example of the target object of a three-dimensional shape.
本実施形態のマトリクス状のフレーム画像データ群の横方向には、所定のアングルで対象物を全方位から所定の角度間隔で順に撮像した第Aフレーム〜第Lフレームの計12フレームのフレーム画像データが整列している。 In the horizontal direction of the matrix-like frame image data group of the present embodiment, frame image data of a total of 12 frames from the Ath frame to the Lth frame obtained by sequentially imaging an object from all directions at a predetermined angle with a predetermined angle. Are aligned.
本実施形態のマトリクス状のフレーム画像データ群の縦方向には、所定の方位で対象物を異なる上下アングルで順に撮像した第1アングル〜第5アングルの計5アングルのフレーム画像データが整列している。 In the vertical direction of the matrix-like frame image data group of the present embodiment, frame image data of a total of 5 angles from the first angle to the fifth angle in which the object is sequentially imaged at different vertical angles in a predetermined orientation is aligned. Yes.
このように、フレーム画像データをマトリクス状に配置することにより、対象物のあらゆる角度からの形状を整列してデータ化している。なお、以後の説明において、ユーザーに選択されたフレーム画像データを、マトリクス内の座標を用いて「(アングル)(フレーム)」(例えば「1A」、「2B」等)により特定する。そして、本実施形態のフレーム画像データ群は、マトリクス状の構成を有することにより、「1A」〜「5L」の計60枚のフレーム画像データから構成されることとなる。 Thus, by arranging the frame image data in a matrix, the shape of the object from all angles is aligned and converted into data. In the following description, the frame image data selected by the user is specified by “(angle) (frame)” (for example, “1A”, “2B”, etc.) using the coordinates in the matrix. The frame image data group according to the present embodiment has a matrix configuration, and thus includes a total of 60 frame image data “1A” to “5L”.
なお、本実施形態ではフレーム画像データ群を12フレームと5アングルのマトリクスとし「1A」〜「5L」の計60枚のフレーム画像データとしたが、フレーム数とアングル数はこれに限られるものではない。 In this embodiment, the frame image data group is a matrix of 12 frames and 5 angles, and a total of 60 frame image data from “1A” to “5L”. However, the number of frames and the number of angles are not limited to this. Absent.
上述したフレーム画像データを取得する画像取得装置の一例を、図4に基づき簡単に説明する。図4は、本実施形態の複数のフレーム画像データを取得するために用いることができる画像取得装置の構成を示す縦断面図及び平面図である。 An example of an image acquisition apparatus that acquires the frame image data described above will be briefly described with reference to FIG. FIG. 4 is a longitudinal sectional view and a plan view showing a configuration of an image acquisition apparatus that can be used to acquire a plurality of frame image data according to the present embodiment.
図4に示すように、画像取得装置2は、設置台6に取り付けられた回転部7と、配設指示部8に取り付けられた撮像部9と、画像取得装置2の各構成を格納する筐体5とを備える。回転部7は、設置台6の下面に固定された回転用電動機10と、設置台6の上方に設けられたターンテーブル11とを備える。ターンテーブル11は、対象物を載置させるための載置台として機能し、回転用電動機10を駆動させることにより、撮像部9に対し対象物を回転させることができる。 As shown in FIG. 4, the image acquisition device 2 includes a rotation unit 7 attached to the installation base 6, an imaging unit 9 attached to the arrangement instruction unit 8, and a housing that stores the components of the image acquisition device 2. And a body 5. The rotating unit 7 includes a rotating electric motor 10 fixed to the lower surface of the installation table 6 and a turntable 11 provided above the installation table 6. The turntable 11 functions as a mounting table for mounting an object, and can rotate the object with respect to the imaging unit 9 by driving the electric motor 10 for rotation.
配設支持部8は、鉛直方向に立設された棒状の雄螺子部12と、雄螺子部12を回転させるための昇降用電動機13から構成されている。また、配設支持部8は、撮像部9を支持し雄螺子部12の回転によって昇降する昇降板14を備える。 The arrangement support portion 8 includes a rod-shaped male screw portion 12 erected in the vertical direction, and an elevating motor 13 for rotating the male screw portion 12. The arrangement support unit 8 includes a lifting plate 14 that supports the imaging unit 9 and moves up and down by the rotation of the male screw unit 12.
撮像部9は、昇降板14の紙面右端に、傾斜機構部14aを介して取り付けられている。なお、傾斜機構部14aは、撮影部9の撮影角度を変化させるものである。撮影部9は、撮像レンズ、光学系、CCD撮像デバイス、及び電子回路等から構成されたCCDカメラと、CCDカメラから出力されるアナログ映像信号を画像データに変換させるビデオデコーダ等を有している。 The imaging unit 9 is attached to the right end of the lifting plate 14 via a tilt mechanism unit 14a. The tilt mechanism 14a changes the shooting angle of the shooting unit 9. The photographing unit 9 includes a CCD camera including an imaging lens, an optical system, a CCD imaging device, an electronic circuit, and the like, and a video decoder that converts an analog video signal output from the CCD camera into image data. .
画像取得装置2は、不図示のコンピュータと、不図示の複数の位置センサを備え、回転用電動機10の制御によりターンテーブル11を所定の角度(例えば11.25°)回転させる毎に、撮像部9によって対象物を撮像する。つまり、対象物を全方位から所定の角度間隔で撮像することにより、複数(例えば12フレーム)のフレーム画像データを取得する。また、各方位において、昇降用電動機13及び傾斜機構部14aを制御することにより、撮像部9の高さ及び傾きを変化させながら対象物を撮像し、上下アングルの異なる複数(例えば5アングル)のフレーム画像データを取得する。 The image acquisition device 2 includes a computer (not shown) and a plurality of position sensors (not shown). Each time the turntable 11 is rotated by a predetermined angle (for example, 11.25 °) by the control of the electric motor 10 for rotation, the imaging unit 9 An object is imaged. That is, a plurality (for example, 12 frames) of frame image data is acquired by imaging the object from all directions at a predetermined angular interval. Further, by controlling the elevating motor 13 and the tilt mechanism unit 14a in each direction, the object is imaged while changing the height and tilt of the imaging unit 9, and a plurality of (for example, 5 angles) having different vertical angles are captured. Get frame image data.
なお、画像取得装置2では、撮像部9に対して対象物を回転させるものを示したが、逆に対象物に対して撮像部9を旋回させるようにしても、複数のフレーム画像データを取得することが可能である。もちろん、このような装置によらず、対象物を回転させて1枚1枚個別に撮影してもよい。対象物を撮像する方法は、三次元形状の対象物について全方位からの所定の角度間隔で撮像したフレーム画像データが得られる限り、これらの画像撮像装置に限定されるものではない。さらにまた、フレーム画像データが撮像部9によらず、例えば、三次元形状の対象物がCGによって生成された場合も画像取得装置2で取得したフレーム画像データと同じ扱いが可能である。 Note that the image acquisition device 2 has shown the one that rotates the object with respect to the imaging unit 9, but conversely, even if the imaging unit 9 is turned with respect to the object, a plurality of frame image data is acquired. Is possible. Of course, the object may be rotated and photographed individually one by one without depending on such an apparatus. The method for imaging an object is not limited to these image imaging devices as long as frame image data obtained by imaging a three-dimensional object at predetermined angular intervals from all directions can be obtained. Furthermore, the frame image data can be handled in the same manner as the frame image data acquired by the image acquisition device 2 even when a three-dimensional object is generated by CG, for example, regardless of the imaging unit 9.
以上のようにして取得された複数のフレーム画像データは、ユーザー装置200から入力部20を介して入力され、画像管理部30の管理部32により図3に示すマトリクス状のデータに変換され、画像管理部30の格納部31に格納される。 The plurality of frame image data acquired as described above is input from the user device 200 via the input unit 20 and converted into the matrix-like data shown in FIG. It is stored in the storage unit 31 of the management unit 30.
管理部32は、格納部31に格納された複数のフレーム画像データが散逸しないように集中的に管理して、後述する画像表示制御部40による指示に基づいて、格納部31から対応するフレーム画像データを抽出して画像表示制御部40に出力する。 The management unit 32 centrally manages the plurality of frame image data stored in the storage unit 31 so as not to be dissipated, and the corresponding frame image from the storage unit 31 based on an instruction from the image display control unit 40 described later. Data is extracted and output to the image display control unit 40.
後述する画像表示制御部40から、例えば、図3の「1A」のフレーム画像データを画像表示制御部40へ入力させるための指示が入力されると、管理部32は、格納部31から当該指示に対応する「1A」のフレーム画像データを抽出し、画像表示制御部40に出力する。 When an instruction for inputting, for example, the frame image data “1A” in FIG. 3 to the image display control unit 40 is input from the image display control unit 40 to be described later, the management unit 32 receives the instruction from the storage unit 31. The frame image data “1A” corresponding to is extracted and output to the image display control unit 40.
画像表示制御部40は、画像管理部30に格納されたフレーム画像データから、入力部20を経て入力されるユーザの指示に対応するフレーム画像データを管理部32を介して抽出するとともに、当該フレーム画像データを、後述する画像表示部50に出力する。 The image display control unit 40 extracts frame image data corresponding to a user instruction input via the input unit 20 from the frame image data stored in the image management unit 30 via the management unit 32, and The image data is output to the image display unit 50 described later.
例えば、ユーザー装置200から入力部20を介して、図3のフレーム画像データ群の「3C」のフレーム画像データを表示させる指示が入力された場合には、画像表示制御部40は、画像管理部30の管理部32へ「3C」のフレーム画像データを格納部31から抽出して入力させるための指示を出力する。そして、管理部32から「3C」のフレーム画像データが入力されると、画像表示制御部40は、「3C」のフレーム画像データを画像表示部50に出力する。 For example, when an instruction to display “3C” frame image data of the frame image data group in FIG. 3 is input from the user device 200 via the input unit 20, the image display control unit 40 displays the image management unit 40. An instruction for extracting “3C” frame image data from the storage unit 31 and inputting it to the management unit 32 is output. When “3C” frame image data is input from the management unit 32, the image display control unit 40 outputs the “3C” frame image data to the image display unit 50.
また、画像表示制御部40は、現在表示されている第n番目のフレーム画像データ(例えば、フレーム画像データ「3C」)を管理する。そして、画像表示制御部40は、次に表示すべき第n+1番目のフレーム画像データ(例えば、フレーム画像データ「2C」、「3B」、「3D」、又は、「4C」)、及び、前に表示した第n−1番目のフレーム画像データ(例えば、フレーム画像データ「3D」)を管理する。 The image display control unit 40 manages the nth frame image data (for example, frame image data “3C”) currently displayed. The image display control unit 40 then displays the (n + 1) th frame image data to be displayed next (for example, frame image data “2C”, “3B”, “3D”, or “4C”) and the previous The displayed (n-1) th frame image data (for example, frame image data “3D”) is managed.
また、画像表示制御部40は、現在表示されている第n番目のフレーム画像データ(例えば、フレーム画像データ「3C」)が画像表示された事実(以下、アクセス事実という)とアクセス時間をアクセス記録取得部60に出力する。 The image display control unit 40 also records the fact that the currently displayed nth frame image data (for example, frame image data “3C”) is displayed as an image (hereinafter referred to as access fact) and the access time. The data is output to the acquisition unit 60.
画像表示部50は、画像表示制御部40により制御され、ユーザー装置200からユーザー入力部20を介して指示のあったフレーム画像データを、ユーザー装置200の表示装置(例えば、ディスプレイ)に出力する。図5は、ユーザー装置200に表示されたフレーム画像データ「3B」の表示例である。 The image display unit 50 is controlled by the image display control unit 40 and outputs frame image data instructed from the user device 200 via the user input unit 20 to a display device (for example, a display) of the user device 200. FIG. 5 is a display example of the frame image data “3B” displayed on the user device 200.
図に示すように、ユーザー装置200のディスプレイにはフレーム画像データ「3B」が表示されている。ユーザーは、ユーザー装置200のディスプレイ上でマウスのポインタを上下左右及び斜め方向に動かすことにより、フレーム画像データ「3B」に隣接するフレーム画像データ、すなわち、図3の「4A」、「4B」、「4C」、「3A」、「3C」、「2A」、「2B」、及び、「2C」を選択することが可能である。選択されたフレーム画像データは、ユーザー装置200のディスプレイに次に表示される。 As shown in the figure, the frame image data “3B” is displayed on the display of the user apparatus 200. The user moves the pointer of the mouse on the display of the user device 200 in the up / down / left / right and diagonal directions, so that the frame image data adjacent to the frame image data “3B”, that is, “4A”, “4B” in FIG. “4C”, “3A”, “3C”, “2A”, “2B”, and “2C” can be selected. The selected frame image data is then displayed on the display of the user device 200.
アクセス記録取得部60は、画像表示制御部40から入力されたアクセス事実とアクセス時間に基づいて、画像表示部50に表示されたフレーム画像データごとのアクセス記録を作成して、出力部70に出力する。ここで、アクセス記録は、ユーザーの指示に応じて画像表示部40に表示されたフレーム画像データごとの表示時間及び表示回数を含む。 The access record acquisition unit 60 creates an access record for each frame image data displayed on the image display unit 50 based on the access fact and access time input from the image display control unit 40 and outputs them to the output unit 70. To do. Here, the access record includes a display time and a display count for each frame image data displayed on the image display unit 40 in accordance with a user instruction.
また、アクセス記録取得部60は、フレーム画像データごとのアクセス記録を格納する。具体的には、フレーム画像データごとの表示回数及び表示時間を格納する。 Further, the access record acquisition unit 60 stores an access record for each frame image data. Specifically, the display count and display time for each frame image data are stored.
出力部70は、ユーザーから入力部20を介してアクセス記録の取得を終了させるための終了指示が入力する。また、出力部70は、終了指示が入力した場合には、アクセス記録取得部60に格納されたフレーム画像データごとのアクセス記録を抽出し、アクセス記録解析部80に出力する。 The output unit 70 receives an end instruction for ending acquisition of the access record from the user via the input unit 20. Further, when an end instruction is input, the output unit 70 extracts an access record for each frame image data stored in the access record acquisition unit 60 and outputs the access record to the access record analysis unit 80.
アクセス記録解析部80は、出力部70から入力されたフレーム画像データごとのアクセス記録を解析する。具体的には、アクセス記録解析部80は、各フレーム画像データの画像表示時間、画像表示回数のそれぞれについて、積算、平均、分布、偏差等の統計学的数学処理を施し、有意な情報を取り出す。また、アクセス記録解析部80は、各フレーム画像データの統計学的数学処理により取得された情報を、画像表示部50に出力する。 The access record analysis unit 80 analyzes the access record for each frame image data input from the output unit 70. Specifically, the access record analysis unit 80 performs statistical mathematical processing such as integration, average, distribution, and deviation on each of the image display time and the number of image display times of each frame image data, and extracts significant information. . Further, the access record analysis unit 80 outputs information acquired by statistical mathematical processing of each frame image data to the image display unit 50.
次に、本実施形態の三次元形状表示記憶装置1の動作について具体例をあげて説明する。図6は、三次元形状表示記憶装置1の動作を説明するためのフローチャートである。図7は、図3のフレーム画像データ群において、ユーザーがマウスにより選択したフレーム画像の経路を示す図である。 Next, the operation of the three-dimensional shape display storage device 1 of the present embodiment will be described with a specific example. FIG. 6 is a flowchart for explaining the operation of the three-dimensional shape display storage device 1. FIG. 7 is a diagram showing a path of a frame image selected by the user with the mouse in the frame image data group of FIG.
図7の矢印で示したように、「3C」(1番目)、「3D」(2番目)、「3E」(3番目)、「3F」(4番目)、「4E」(5番目)、「4D」(6番目)、「3D」(7番目)、「2D」(8番目)、「1D」(9番目)、「1C」(10番目)、「2B」(11番目)、「3B」(12番目)、「3C」(13番目)、「3D」(14番目)、「3E」(15番目)、「3F」(16番目)、「3G」(17番目)、及び、「2G」(18番目)の順で、フレーム画像データを表示させた場合について説明する。 As indicated by arrows in FIG. 7, “3C” (first), “3D” (second), “3E” (third), “3F” (fourth), “4E” (fifth), “4D” (6th), “3D” (7th), “2D” (8th), “1D” (9th), “1C” (10th), “2B” (11th), “3B ”(12th),“ 3C ”(13th),“ 3D ”(14th),“ 3E ”(15th),“ 3F ”(16th),“ 3G ”(17th), and“ 2G The case where the frame image data is displayed in the order of “18th” will be described.
なお、説明の都合上、フレーム画像データ「3E」(3番目)がユーザーにより選択された時点から説明を行うこととする。 For convenience of explanation, the description will be made from the point in time when the frame image data “3E” (third) is selected by the user.
ステップS1では、入力部20を介してユーザー装置200からの静止画像であるフレーム画像データ「3E」の指示が入力されると、画像表示制御部40は、画像管理部30の管理部31に対して、次に表示すべきフレーム画像データ「3E」を選択し、フレーム画像データ「3E」の出力を指示する。 In step S <b> 1, when an instruction of frame image data “3E”, which is a still image, is input from the user apparatus 200 via the input unit 20, the image display control unit 40 sends the management unit 31 of the image management unit 30 to the management unit 31. The frame image data “3E” to be displayed next is selected, and the output of the frame image data “3E” is instructed.
画像表示制御部40からの指示が入力された管理部32は、格納部31から表示すべきフレーム画像データ「3E」を選択して抽出し、画像表示制御部40に出力する。 The management unit 32 to which the instruction from the image display control unit 40 is input selects and extracts the frame image data “3E” to be displayed from the storage unit 31, and outputs it to the image display control unit 40.
ステップS2では、画像表示制御部40は、ステップS1において画像管理部30の管理部32から入力されたフレーム画像データ「3E」を、画像表示部50に出力する。 In step S <b> 2, the image display control unit 40 outputs the frame image data “3E” input from the management unit 32 of the image management unit 30 in step S <b> 1 to the image display unit 50.
ステップS3では、画像表示制御部40は表示されたフレーム画像データ「3E」のアクセス事実及びアクセス時間をアクセス記録取得部60に出力する。アクセス記録取得部60は、画像表示制御部40により画像表示部50に表示されたフレーム画像データ「3E」のアクセス記録の作成を開始する。具体的には、画像表示部50に表示されたフレーム画像データ「3E」のアクセス事実とアクセス時間に基づいてアクセス記録を作成する。 In step S <b> 3, the image display control unit 40 outputs the access fact and access time of the displayed frame image data “3E” to the access record acquisition unit 60. The access record acquisition unit 60 starts creating an access record of the frame image data “3E” displayed on the image display unit 50 by the image display control unit 40. Specifically, an access record is created based on the access fact and access time of the frame image data “3E” displayed on the image display unit 50.
表1は、アクセス記録取得部60に格納されたアクセス事実とアクセス時間を示す。 Table 1 shows access facts and access times stored in the access record acquisition unit 60.
フレーム画像データの表示時間の算出について詳述する。アクセス記録取得部60は、1つ前のフレーム画像データ「3D」(2番目)の画像表示部50への表示が終了した時間(年月日及び時分秒)を予め装置内の時計(不図示)から読み込んでおり、3番目のフレーム画像データ「3E」(3番目)の画像表示部50への表示が終了すると、時計から現在時刻を読み込んで、両時刻の差から3番目に画像表示部50に表示されたフレーム画像データ「3E」の表示時間を算出する。 The calculation of the display time of the frame image data will be described in detail. The access record acquisition unit 60 sets the time (year / month / day and hour / minute / second) when the display of the previous frame image data “3D” (second) on the image display unit 50 is ended in advance in the clock (not shown). When the display of the third frame image data “3E” (third) on the image display unit 50 is completed, the current time is read from the clock, and the third image is displayed from the difference between the two times. The display time of the frame image data “3E” displayed on the unit 50 is calculated.
ステップS4では、アクセス記録取得部60は、表示されたフレーム画像データ「3E」について、アクセス記録として、表示回数と表示時間とを格納する。 In step S4, the access record acquisition unit 60 stores the number of display times and the display time as the access record for the displayed frame image data “3E”.
アクセス記録取得部60は、表示されたフレーム画像データ「3E」についてステップ1からステップ4が実行されると、表示されたフレーム画像データ「3E」に対応したカウンターをインクリメントし(1が足される)、表示回数として格納される。 When Step 1 to Step 4 are executed for the displayed frame image data “3E”, the access record acquisition unit 60 increments the counter corresponding to the displayed frame image data “3E” (1 is added). ), And stored as the number of display times.
同様に、アクセス記録取得部60は、表示されたフレーム画像データ「3E」についてステップ1からステップ4が実行されると、表示されたフレーム画像データ「3E」に対応した記憶領域に画像表示時間を格納する。 Similarly, when step 1 to step 4 are executed for the displayed frame image data “3E”, the access record acquisition unit 60 sets the image display time in the storage area corresponding to the displayed frame image data “3E”. Store.
表2は、アクセス記録取得部60に格納された表示回数と表示時間を示す。 Table 2 shows the number of display times and the display time stored in the access record acquisition unit 60.
次いでステップS5において、アクセス記録取得部60は、ユーザーからの指示の入力を待つ。 Next, in step S5, the access record acquisition unit 60 waits for an instruction input from the user.
ステップS6では、出力部70は、ユーザー装置200から終了指示が入力されたか否かを判定する。終了指示が入力されない場合には、次のフレーム画像データ「3F」(4番目)について、ステップS1からステップS5を繰り返す。以後、フレーム画像データ「4E」(5番目)〜「2G」(18番目)についても、ステップS1からステップS6を繰り返す。 In step S <b> 6, the output unit 70 determines whether an end instruction is input from the user device 200. If no end instruction is input, step S1 to step S5 are repeated for the next frame image data “3F” (fourth). Thereafter, steps S1 to S6 are repeated for the frame image data “4E” (fifth) to “2G” (18th).
一方、終了指示が入力された場合には、ステップS7へ進み、アクセス記録を解析する。 On the other hand, if an end instruction is input, the process proceeds to step S7, and the access record is analyzed.
ステップS7では、出力部70は、アクセス記録格納部60に格納された各フレーム画像データ「3C」(1番目)〜「2G」(18番目)の、のべ表示回数及びのべ表示時間をそれぞれ抽出し、アクセス記録解析部80に出力する。 In step S7, the output unit 70 sets the total display count and the total display time of each frame image data “3C” (first) to “2G” (18th) stored in the access record storage unit 60, respectively. The data is extracted and output to the access record analysis unit 80.
アクセス記録解析部80は、入力された各フレーム画像データ「3C」(1番目)〜「2G」(18番目)ごとの表示回数、表示時間のそれぞれについて平均、分布、偏差等の統計学的数学処理を施し、有意な情報を取り出す。 The access record analysis unit 80 uses statistical mathematics such as average, distribution, and deviation for each of the display count and display time for each input frame image data “3C” (first) to “2G” (18th). Process and extract significant information.
以下、統計学的数学処理の例について述べる。ある1つの画像の、のべ表示回数をC、のべ表示時間をt、その画像の注目度をxとすると、それらの関係は、所定の関数fを用いて次のように表すことができる。 Hereinafter, an example of statistical mathematical processing will be described. Assuming that the total display count of a certain image is C, the total display time is t, and the attention level of the image is x, the relationship can be expressed as follows using a predetermined function f. .
次にn個の全画像についてそれぞれ注目度xを計算して相加平均を求める。 Next, the degree of attention x is calculated for each of all n images to obtain an arithmetic average.
さらに標準偏差σを求める。 Further, a standard deviation σ is obtained.
この標準偏差σは、一例として偏差値Tとしても表現することができる。 This standard deviation σ can also be expressed as a deviation value T as an example.
さらに注目度xのデータが十分多数集まれば、標準正規分布Nになる。 Furthermore, if a sufficient amount of data of attention level x is collected, the standard normal distribution N is obtained.
これらより、相加平均から±2σより外れたフレーム画像データを切り捨てたり、逆に、所定のフレーム画像データが、±1σ以内に入る確率を推測することができる。 From these, it is possible to discard frame image data that deviates from ± 2σ from the arithmetic mean, or conversely, estimate the probability that predetermined frame image data falls within ± 1σ.
ステップS7により得られた情報は、アクセス記録解析部80により、画像表示部50に出力され、ユーザー装置200のディスプレイに表示される。図8は、ユーザー装置200のディスプレイに表示される画像ののべ表示回数の分布の例を示すグラフである。図からわかるように、ユーザーに客観的に注目された画像は、「3D」及びその近辺であることがわかる。 The information obtained in step S7 is output to the image display unit 50 by the access record analysis unit 80 and displayed on the display of the user device 200. FIG. 8 is a graph showing an example of the distribution of the total number of display times of images displayed on the display of the user device 200. As can be seen from the figure, it can be seen that the image that is objectively noticed by the user is “3D” and its vicinity.
以上、説明したように、本実施形態の三次元形状表示記憶装置によれば、ユーザー装置に表示される静止画像ごとの表示履歴を作成することにより、当該表示履歴によって三次元形状の対象物を見るときのユーザーが注目した角度、方向を正確に判別することができるため、ユーザーの注目を集めた部分についての客観的な情報を得ることができる。 As described above, according to the three-dimensional shape display storage device of the present embodiment, by creating a display history for each still image displayed on the user device, an object having a three-dimensional shape is represented by the display history. Since it is possible to accurately determine the angle and direction in which the user has paid attention when viewing, it is possible to obtain objective information about the portion that has attracted the user's attention.
100: 三次元形状表示記憶装置
20: 入力部
30: 画像管理部
31: 格納部
32: 管理部
40: 画像表示制御部
50: 画像表示部
60: アクセス記録取得部
70: 出力部
80: アクセス記録解析部
100: three-dimensional shape display storage device 20: input unit 30: image management unit 31: storage unit 32: management unit 40: image display control unit 50: image display unit 60: access record acquisition unit 70: output unit 80: access record Analysis part
Claims (3)
ユーザー装置からのフレーム画像データの選択が入力される入力部と、
前記入力部から入力された選択されたフレーム画像データを、前記画像格納部から取得するとともに、選択されたフレーム画像データのアクセス事実とアクセス時間を出力する画像表示制御部と、
前記選択されたフレーム画像データのアクセス事実及びアクセス時間に基づいて、フレーム画像データごとの表示時間と表示回数を算出し、前記表示時間と前記表示回数とを出力するアクセス記録取得部と、
前記各フレーム画像データごとの前記表示時間と前記表示回数について統計学的数学処理を施し、該処理結果を出力するアクセス記録解析部と、
を有することを特徴とする三次元形状表示記録装置。 An image management unit storing a frame image data group composed of a plurality of frame image data composed of images obtained from a number of angles of a three-dimensional object;
An input unit for inputting selection of frame image data from the user device;
The selected frame image data input from the input unit is acquired from the image storage unit, and an image display control unit that outputs an access fact and access time of the selected frame image data;
Based on the access fact and access time of the selected frame image data, an access record acquisition unit that calculates a display time and a display count for each frame image data, and outputs the display time and the display count;
An access record analysis unit that performs statistical mathematical processing on the display time and the display count for each frame image data, and outputs the processing results;
A three-dimensional shape display recording device characterized by comprising:
The three-dimensional shape display storage device according to claim 1 or 2, wherein the frame image data stored in the image storage unit is frame image data created by computer graphics.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007320286A JP2009146012A (en) | 2007-12-12 | 2007-12-12 | Three-dimensional shape display and recording device |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2007320286A JP2009146012A (en) | 2007-12-12 | 2007-12-12 | Three-dimensional shape display and recording device |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2009146012A true JP2009146012A (en) | 2009-07-02 |
Family
ID=40916577
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2007320286A Pending JP2009146012A (en) | 2007-12-12 | 2007-12-12 | Three-dimensional shape display and recording device |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2009146012A (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016506586A (en) * | 2013-01-10 | 2016-03-03 | フォックス スポーツ プロダクションズ,インコーポレイティッド | System, method and interface for viewer interaction for 3D display of vehicles |
-
2007
- 2007-12-12 JP JP2007320286A patent/JP2009146012A/en active Pending
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2016506586A (en) * | 2013-01-10 | 2016-03-03 | フォックス スポーツ プロダクションズ,インコーポレイティッド | System, method and interface for viewer interaction for 3D display of vehicles |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP5053404B2 (en) | Capture and display digital images based on associated metadata | |
| JP4539048B2 (en) | Moving image display system and program | |
| EP2120210B1 (en) | Composition determination device, composition determination method, and program | |
| EP2104336A2 (en) | Composition determination device, composition determination method, and program | |
| AU2018338407B2 (en) | Image distribution device, image distribution system, image distribution method, and image distribution program | |
| US9313405B2 (en) | Image processing device, image processing method and program | |
| JP5942933B2 (en) | Terminal device and program | |
| CN105825521A (en) | Information processing apparatus and control method thereof | |
| JP7167134B2 (en) | Free-viewpoint image generation method, free-viewpoint image display method, free-viewpoint image generation device, and display device | |
| EP3070681A1 (en) | Display control device, display control method and program | |
| US11211097B2 (en) | Generating method and playing method of multimedia file, multimedia file generation apparatus and multimedia file playback apparatus | |
| US7583265B2 (en) | Image display method and device, image display system, server, program, and recording medium | |
| JP6593922B2 (en) | Image surveillance system | |
| CN105814905B (en) | Method and system for synchronizing usage information between a device and a server | |
| JP2009246917A (en) | Video display device, and video processing apparatus | |
| US8169495B2 (en) | Method and apparatus for dynamic panoramic capturing | |
| US20180014067A1 (en) | Systems and methods for analyzing user interactions with video content | |
| JP2009146012A (en) | Three-dimensional shape display and recording device | |
| JP2020191590A (en) | Image processing device, system, control method of image processing device, and program | |
| JP3837882B2 (en) | Captured image management apparatus and program recording medium thereof | |
| US20050251741A1 (en) | Methods and apparatus for capturing images | |
| US7348999B1 (en) | Alignment method and apparatus | |
| JP5942932B2 (en) | Terminal device and program | |
| KR20180053221A (en) | Display device and method for control thereof | |
| JP2018107775A (en) | Information processing device, and control method and program thereof |