JP2022116368A - Video processing device, display device, and video processing method - Google Patents
Video processing device, display device, and video processing method Download PDFInfo
- Publication number
- JP2022116368A JP2022116368A JP2019104433A JP2019104433A JP2022116368A JP 2022116368 A JP2022116368 A JP 2022116368A JP 2019104433 A JP2019104433 A JP 2019104433A JP 2019104433 A JP2019104433 A JP 2019104433A JP 2022116368 A JP2022116368 A JP 2022116368A
- Authority
- JP
- Japan
- Prior art keywords
- mode
- video
- video processing
- processing device
- display information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/45—Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
- H04N21/462—Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
【課題】従来よりも表示品位に優れた出力映像を提供する。【解決手段】映像処理装置(1)において、第1受信部(81)は入力映像を受信し、第1受信部(81)とは異なる第2受信部(82)は、入力映像に対応する表示情報を受信する。表示情報は、入力映像に同期したメタデータを含む。メタデータは、入力映像の注目領域を示す注目情報を含む。映像処理装置(1)は、(i)表示情報を用いて入力映像を処理する第1モード、および、(ii)表示情報を用いずに入力映像を処理する第2モード、のいずれかの一方のモードを選択する。【選択図】図1An object of the present invention is to provide an output image having a display quality superior to that of the conventional art. Kind Code: A1 In a video processing device (1), a first receiving section (81) receives an input video, and a second receiving section (82) different from the first receiving section (81) corresponds to the input video. Receive display information. The display information includes metadata synchronized with the input video. The metadata includes attention information indicating an attention area of the input video. The video processing device (1) operates in either (i) a first mode in which the input video is processed using the display information, or (ii) a second mode in which the input video is processed without using the display information. mode. [Selection drawing] Fig. 1
Description
以下の開示は、映像処理装置に関する。 The following disclosure relates to video processing devices.
近年、映像コンテンツのさらなる充実化のために、様々な技術が提案されている。例えば、ハイブリッドキャスト放送システムについての技術開発がなされている(非特許文献1を参照)。 In recent years, various techniques have been proposed for further enhancement of video content. For example, technical development of a hybridcast broadcasting system has been made (see Non-Patent Document 1).
ハイブリッドキャスト放送システムでは、入力映像と、当該入力映像に対応する表示情報(例:当該入力映像のメタデータ)とが、個別の経路によって、映像処理装置に対し同時に配信される。そして、映像処理装置において、表示情報に基づき入力映像を処理することで、ユーザ(視聴者)にとってより魅力的な映像(出力映像)を提供できる。 In a hybridcast broadcasting system, input video and display information corresponding to the input video (eg, metadata of the input video) are simultaneously delivered to the video processing device through separate paths. By processing the input video based on the display information in the video processing device, it is possible to provide a more attractive video (output video) to the user (viewer).
但し、後述するように、入力映像と表示情報とが同時に配信される放送システムでは、映像処理装置での表示情報の受信が適切に行われない場合も懸念される。このような場合、出力映像の表示品位が低下しうる。但し、従来技術(例:非特許文献1)では、このような問題について特に考慮されていない。 However, as will be described later, in a broadcasting system in which input video and display information are distributed at the same time, there is a concern that the display information may not be properly received by the video processing device. In such a case, the display quality of the output video may deteriorate. However, in the prior art (eg, Non-Patent Document 1), no particular consideration is given to such a problem.
本発明の一開示は、上記の問題に鑑みてなされたものであり、従来よりも表示品位に優れた出力映像を提供することを目的とする。 One disclosure of the present invention has been made in view of the above problems, and an object of the present invention is to provide an output image having a display quality superior to that of the conventional art.
上記の課題を解決するために、本開示の一態様に係る映像処理装置は、入力映像を処理することにより出力映像を生成する映像処理装置であって、上記入力映像を受信する第1受信部と、上記入力映像に対応する表示情報を受信する第2受信部と、を備えており、上記第2受信部は、上記第1受信部とは異なる受信部であり、上記表示情報は、上記入力映像に同期したメタデータを含み、上記メタデータは、上記入力映像の注目領域を示す注目情報を含み、上記映像処理装置は、(i)上記表示情報を用いて上記入力映像を処理する第1モード、および、(ii)上記表示情報を用いずに上記入力映像を処理する第2モード、のいずれかの一方のモードを選択する。 In order to solve the above problems, a video processing device according to an aspect of the present disclosure is a video processing device that generates an output video by processing an input video, a first receiving unit that receives the input video and a second receiving section for receiving display information corresponding to the input video, wherein the second receiving section is a receiving section different from the first receiving section, and the display information is the Metadata synchronized with the input image is included, the metadata includes attention information indicating an attention area of the input image, and the image processing device is configured to: (i) process the input image using the display information; and (ii) a second mode in which the input image is processed without using the display information.
上記の課題を解決するために、本開示の一態様に係る映像処理方法は、入力映像を処理することにより出力映像を生成する映像処理方法であって、第1受信部によって上記入力映像を受信する第1受信工程と、上記第1受信部とは異なる第2受信部によって、上記入力映像に対応する表示情報を受信する第2受信工程と、を含んでおり、上記表示情報は、上記入力映像に同期したメタデータを含み、上記メタデータは、上記入力映像の注目領域を示す注目情報を含み、上記映像処理方法は、(i)上記表示情報を用いて上記入力映像を処理する第1モード、および、(ii)上記表示情報を用いずに上記入力映像を処理する第2モード、のいずれかの一方のモードを選択する工程をさらに含んでいる。 To solve the above problems, a video processing method according to an aspect of the present disclosure is a video processing method for generating an output video by processing an input video, wherein the input video is received by a first receiving unit. and a second receiving step of receiving display information corresponding to the input video by a second receiving unit different from the first receiving unit, wherein the display information is the input including metadata synchronized with video, the metadata including attention information indicating an attention area of the input image, the image processing method comprising: (i) processing the input image using the display information; and (ii) a second mode in which the input image is processed without using the display information.
本開示の一態様によれば、従来よりも表示品位に優れた出力映像を提供できる。 According to one aspect of the present disclosure, it is possible to provide an output image with better display quality than conventional.
〔実施形態1〕
実施形態1の表示装置100について、以下に説明する。便宜上、実施形態1にて説明した部材と同じ機能を有する部材については、以降の各実施形態では、同じ符号を付記し、その説明を繰り返さない。公知技術と同様の事項についても、説明を適宜省略する。
[Embodiment 1]
The
各図に示されている装置構成は、説明の便宜上のための単なる一例である。また、明細書中において以下に述べる各数値も、単なる一例である。本明細書では、2つの数AおよびBについての「A~B」という記載は、特に明示されない限り、「A以上かつB以下」を意味するものとする。 The device configuration shown in each figure is merely an example for convenience of explanation. Further, each numerical value described below in the specification is also a mere example. As used herein, the description "A to B" for two numbers A and B shall mean "greater than or equal to A and less than or equal to B" unless otherwise specified.
(表示装置100の概要)
図1は、表示装置100の要部の構成を示すブロック図である。表示装置100は、映像処理装置1と表示部90とを備える。映像処理装置1は、放送システム1000から、入力映像MOV1を含む各種のデータを取得する。以下、入力映像MOV1を、単にMOV1とも略記する。その他の記号についても、適宜同様に略記する。映像処理装置1は、MOV1を処理することにより、出力映像MOV2を生成する。映像処理装置1は、当該MOV2を表示部90に表示させる。なお、MOV1は、オリジナル映像とも称される。
(Overview of display device 100)
FIG. 1 is a block diagram showing the configuration of the essential parts of the
放送システム1000は、MOV1と表示情報(MOV1に対応する情報)とを同時に配信する。放送システム1000は、(i)MOV1を配信するための第1ネットワークNT1と、(ii)表示情報を配信するための第2ネットワークNT2と、を備える。表示情報には、MOV1に同期したメタデータ(より具体的には、映像情報メタデータ)が含まれているものとする。メタデータには、MOV1の注目領域(より厳密には、MOV1の各フレームの注目領域)(例:後述のATT)を示す注目情報が示されている。
図1の例における放送システム1000は、ハイブリッドキャスト放送システムである。このため、実施形態1のNT1およびNT2はそれぞれ、放送ネットワークおよびIP(Internet Protocol)通信ネットワークであるものとする。
但し、放送システム1000は、ハイブリッドキャスト放送システムに限定されない。放送システム1000は、MOV1と表示情報とを、個別の経路にて同期して配信する映像配信システムであればよい。このため、NT1およびNT2は、互いに異なる通信ネットワークであればよい。同様に、以下に述べる第1受信部81および第2受信部82は、互いに異なる受信部(通信インターフェース)であればよい。
However, the
NT1は、放送波を映像処理装置1に対して送信する。放送波は、MOV1を搬送する搬送波の一例である。NT2は、表示情報を、映像処理装置1に対して送信する。NT2は、NT1によるMOVの送信と同期して、表示情報を映像処理装置1に送信する。
NT1 transmits broadcast waves to
映像処理装置1は、制御部10と第1受信部81と第2受信部82とを備える。制御部10は、映像処理装置1(および表示装置100)の各部を統括的に制御する。制御部10は、映像処理部110、表示情報受信判定部120、シーンチェンジ検出部130、および選択部140を備える。制御部10の各部の動作については、後述する。また、映像処理装置1は、不図示の各種の記憶装置(例:フレームメモリ)を含む。
The
第1受信部81は、NT1を介してMOV1を取得(受信)する。図1の例では、第1受信部81は、放送チューナ810および映像デコーダ820を含む。放送チューナ810は、放送波を受信する。映像デコーダ820は、当該放送波を復号(デコード)することにより、(i)MOV1と、(ii)当該MOV1のタイムスタンプとを取得する。以下の説明では、特に明示されない限り、「タイムスタンプ」とは、「MOV1のタイムスタンプ」を指すものとする。第1受信部81は、取得したMOV1とタイムスタンプとを、制御部10に供給する。
The
第2受信部82は、NT2を介して表示情報を取得する。第2受信部82は、公知のIP通信インターフェースであってよい。第2受信部82は、取得した表示情報を制御部10に供給する。
The
図2は、ZOOMモード(後述)における拡大処理について説明する図である。図2のMOV1では、2人の人物の全身が映るシーン(後述するメインコンテンツのワンシーン)が描画されている。MOV1の注目領域ATTとは、MOV1の部分領域であって、ズームイン表示(フォーカス表示)の対象となる領域である。つまり、ATTは、MOV1の領域のうち、ユーザ(視聴者)に注目させることが意図された領域と言える。 FIG. 2 is a diagram for explaining enlargement processing in a ZOOM mode (described later). In MOV1 of FIG. 2, a scene (one scene of the main content described later) showing the whole bodies of two people is drawn. The attention area ATT of MOV1 is a partial area of MOV1 and is an area targeted for zoom-in display (focus display). In other words, ATT can be said to be an area intended to attract the user's (viewer's) attention in the area of MOV1.
図2では、説明の便宜上、MOV1にATTを重ね合わせて図示している。本明細書では、ATTの形状は、MOV1の形状に相似しているものとする。すなわち、ATTのアスペクト比は、MOV1のアスペクト比(一定値)と等しいものとする。図2の例では、ATTは、MOV1の上記シーンにおいて、2人の人物の顔にフォーカスすることを意図して設定されている。 In FIG. 2, for convenience of explanation, ATT is shown superimposed on MOV1. In this specification, the shape of ATT shall be similar to the shape of MOV1. That is, the aspect ratio of ATT is assumed to be equal to the aspect ratio (constant value) of MOV1. In the example of FIG. 2, ATT is set with the intention of focusing on the faces of two people in the above scene of MOV1.
図2の例では、映像処理部110は、注目情報に基づいてMOV1を生成し、MOV2を生成する。具体的には、映像処理部110は、MOV1のATTが拡大された映像として、MOV2を生成する。このように、映像処理部110は、ATTをズームインするようにMOV1を拡大することにより、MOV2を生成する。なお、MOV2の解像度は、MOV1と等しくともよいし、当該MOV1と異なっていてもよい。
In the example of FIG. 2, the
以下、MOV1に対するMOV2の拡大率を、αとして表す。図2の例では、α=Pである。Pは、ZOOMモードにおける拡大率であり、1よりも大きい任意の数である。ZOOMモードとは、以下に述べる第1モードのうち、ATTと同スケールの映像をMOV2として表示するモードである。 Hereinafter, the enlargement ratio of MOV2 with respect to MOV1 is represented as α. In the example of FIG. 2, α=P. P is the magnification in ZOOM mode and is any number greater than one. The ZOOM mode is a mode in which an image having the same scale as ATT is displayed as MOV2 among the first modes described below.
図3は、ZOOMモードにおける拡大処理について説明する別の図である。以下、図3を参照し、MOV1とATTとの関係について説明する。図3に示されるように、MOV1の横方向(X方向)および縦方向(Y方向)は予め設定されている。X方向およびY方向のそれぞれの正の向きは、図3の紙面の右方向および下方向であるものとする。特に明示されない限り、他の各図においても、同様の方向付けが適用されるものとする。 FIG. 3 is another diagram illustrating enlargement processing in the ZOOM mode. The relationship between MOV1 and ATT will be described below with reference to FIG. As shown in FIG. 3, the horizontal direction (X direction) and vertical direction (Y direction) of MOV1 are set in advance. The positive directions of the X direction and the Y direction are assumed to be the right direction and the downward direction on the page of FIG. A similar orientation shall be applied to each of the other figures unless otherwise specified.
以下の説明では、MOV1の解像度(画素数)は、「SIZEX×SIZEY」であるものとする。SIZEXおよびSIZEYはそれぞれ、MOV1の横方向解像度および縦方向解像度である。一例として、MOV1がFull HD(High Definition)映像である場合、SIZEX=1920、SIZEY=1080である。 In the following description, it is assumed that the resolution (number of pixels) of MOV1 is "SIZEX×SIZEY". SIZEX and SIZEY are the horizontal and vertical resolutions of MOV1, respectively. As an example, when MOV1 is a Full HD (High Definition) video, SIZEX=1920 and SIZEY=1080.
図3に示されるように、MOV1の4つの頂点のうち左上の頂点を、原点O(0,0)として設定する。そして、MOV1の4つの頂点のうち右下の頂点(すなわち、原点Oの対頂点)を、頂点Eと称する。頂点Eの座標は、E(SIZEX-1,SIZEY-1)として表される。原点Oおよび頂点Eは、XY平面上における、MOV1の始点および終点とも表現できる。 As shown in FIG. 3, the upper left vertex of the four vertices of MOV1 is set as the origin O(0,0). Then, of the four vertices of MOV1, the lower right vertex (that is, the opposite vertex of origin O) is referred to as vertex E. The coordinates of vertex E are represented as E(SIZEX-1, SIZEY-1). The origin O and the vertex E can also be expressed as the start point and end point of MOV1 on the XY plane.
図3の例において、ATTの4つの頂点のうち左上の頂点を、頂点AS0(xs0,ys0)とする。頂点AS0は、原点Oに対応する。また、ATTの4つの頂点のうち右下の頂点を、頂点AE0(xe0,ye0)とする。頂点AEは、頂点Eに対応する。実施形態1では、注目情報は、頂点AS0・AE0の座標を示す情報を含むものとする。つまり、注目情報は、xs0、ys0、xe0、およびye0のそれぞれの値を示す情報を含むものとする。 In the example of FIG. 3, the upper left vertex among the four vertices of ATT is assumed to be vertex AS0 (xs0, ys0). The vertex AS0 corresponds to the origin O. Also, let the lower right vertex of the four vertices of ATT be vertex AE0 (xe0, ye0). Vertex AE corresponds to vertex E. In the first embodiment, attention information includes information indicating coordinates of vertices AS0 and AE0. In other words, attention information includes information indicating each value of xs0, ys0, xe0, and ye0.
なお、ZOOMモードにおける拡大率がPであることから、X方向およびY方向のそれぞれについて、
P×(xe0-xs0)=SIZEX-1 …(1A)
P×(ye0-ys0)=SIZEY-1 …(1B)
の関係が成立する。
Note that since the magnification in the ZOOM mode is P, for each of the X and Y directions,
P×(xe0−xs0)=SIZEX−1 (1A)
P×(ye0-ys0)=SIZEY-1 (1B)
relationship is established.
ZOOMモードにおいて、映像処理部110は、上述の式(1A)または(1B)のいずれかに基づき、Pを算出する。そして、映像処理部110は、当該Pを用いてMOV1を拡大することにより、MOV2を生成する。
In the ZOOM mode, the
一例として、MOV1においてユーザに特に注目させるべき被写体(主要被写体)の像がATTの中央部分に位置するように、当該ATTが設定されることが好ましい。また、多くのMOV1では、時間の進展に伴って主要被写体の像が移動するので、当該主要被写体の像の移動に追従するように、ATTが設定されることが好ましい。このため、MOV1の各フレームにおいて、ATTは相違しうる。 As an example, the ATT is preferably set so that the image of the subject (main subject) to which the user should pay particular attention in MOV1 is positioned in the central portion of the ATT. Also, in many MOV1s, the image of the main subject moves as time progresses, so it is preferable to set ATT so as to follow the movement of the image of the main subject. Therefore, in each frame of MOV1, the ATT can be different.
図4は、ZOOMモードにおけるMOV1とMOV2との関係を例示する図である。図4では、ZOOMモードにおいて、メタデータ(表示情報)の取得が適切に行われている場合を例示する。この場合、後述する比較例においても、図4と同様の処理が行われる。図4では、MOV1がサブコンテンツ映像(以下、サブコンテンツ)からメインコンテンツ映像(以下、メインコンテンツ)へと切り替わる場合を例示する。図4の例のサブコンテンツおよびメインコンテンツはそれぞれ、CM(Commercial)映像(以下、CM)およびTVドラマ番組の映像(以下、ドラマ)である。 FIG. 4 is a diagram illustrating the relationship between MOV1 and MOV2 in ZOOM mode. FIG. 4 illustrates a case where metadata (display information) is appropriately acquired in the ZOOM mode. In this case, the same processing as in FIG. 4 is performed in a comparative example to be described later. FIG. 4 illustrates a case where MOV1 switches from a sub-content video (hereinafter referred to as sub-content) to a main content video (hereinafter referred to as main content). The sub-contents and main content in the example of FIG. 4 are CM (Commercial) video (hereinafter referred to as CM) and TV drama program video (hereinafter referred to as drama), respectively.
図4の例では、MOV1のフレームi(第iフレーム)のタイムスタンプを、タイプスタンプiと表記する。その他のタイムスタンプについても同様である。フレームiについての説明は、特に明示されない限り、その他のフレームにも当てはまる。以下の説明では、特に明示されない限り、「フレーム」とは、「MOV1のフレーム」を指すものとする。 In the example of FIG. 4, the time stamp of frame i (i-th frame) of MOV1 is denoted as time stamp i. The same applies to other time stamps. The description for frame i also applies to other frames unless otherwise stated. In the following description, "frame" refers to "frame of MOV1" unless otherwise specified.
図4の例では、フレームi+2において、MOV1がCMからドラマへと切り替わる。第2受信部82は、MOV1のあるフレームの先頭(当該あるフレームの表示開始タイミング)において、当該あるフレームのメタデータを取得できるものとする。
In the example of FIG. 4, MOV1 switches from CM to drama at frame i+2. It is assumed that the
フレームi~i+1(CMの表示期間)では、MOV1の中央部分に表示されているCMの主要部分をユーザに注目させるために、注目領域は画面中央の部分に設定されている。以下、このように設定された注目領域を、「注目領域:中央」とも略記する。これに対し、フレームi+2以降(ドラマの表示期間)では、MOV1の画面上側に位置している2人の人物の顔をユーザに注目させるために、注目領域は当該顔の部分に設定されている。以下、このように設定された注目領域を、「注目領域:顔」とも略記する。 In frames i to i+1 (commercial display period), the attention area is set at the center of the screen in order to draw the user's attention to the main part of the commercial displayed in the center of MOV1. Hereinafter, the attention area set in this way is also abbreviated as "attention area: center". On the other hand, from frame i+2 onwards (drama display period), in order to draw the user's attention to the faces of the two persons positioned on the upper side of the screen of MOV1, the region of interest is set to the faces. . Hereinafter, the attention area set in this way is also abbreviated as "attention area: face".
映像処理部110は、フレームiに応じた(タイプスタンプiに応じた)メタデータを用いて、当該フレームiを拡大する。そして、映像処理部110は、拡大後のフレームiを、MOV2のフレームi-1として出力する。このように、MOV2は、MOV1よりも1フレーム分遅延した映像として生成される(後述の図15も参照)。
The
従って、図4の例では、映像処理部110は、フレームi~i+1の注目領域を拡大することにより、MOV2の対応する各フレームを生成する。その後、映像処理部110は、フレームi+2以降の注目領域を拡大することにより、MOV2の対応する各フレームを生成する。このように生成されたMOV2によれば、CM表示期間とドラマの表示期間において、MOV2の異なる領域をユーザに注目させることができる。
Therefore, in the example of FIG. 4, the
(比較例)
表示装置100(より具体的には、映像処理装置1)に対するさらなる説明に先立ち、従来技術の問題点について説明するために、比較例としての表示装置100rについて述べる。図5は、表示装置100rの要部の構成を示すブロック図である。便宜上、表示装置100rの映像処理装置を、映像処理装置1rと称する。また、映像処理装置1rの制御部を、制御部10rと称する。
(Comparative example)
Prior to further explanation of the display device 100 (more specifically, the video processing device 1), a
図6は、比較例における処理の一例について説明する図である。図6は、図4と対になる図である。比較例においても、第2受信部82は、NT2を介してメタデータを受信する。しかしながら、一般的に、第2受信部82(あるいはNT2)の通信状態の安定性は、第1受信部81(あるいはNT1)の通信状態の安定性に比べて低い。従って、第2受信部82によって、メタデータを適切に受信できない状態が生じることも考えられる。
FIG. 6 is a diagram illustrating an example of processing in a comparative example. FIG. 6 is a diagram paired with FIG. Also in the comparative example, the
一例として、図6に示す通り、フレームi+1~i+3のメタデータが受信できない場合を考える。このような場合、あるフレームを、同フレームに対応するメタデータ(適切なメタデータ)を用いて拡大することができないため、MOV2の映像に乱れが生じうる(MOV2の表示品位が低下しうる)。そこで、メタデータの受信不良に対応するための対策を採ることが好ましい。 As an example, consider the case where metadata for frames i+1 to i+3 cannot be received, as shown in FIG. In such a case, a certain frame cannot be enlarged using the metadata (appropriate metadata) corresponding to the same frame, so the image of MOV2 may be disturbed (the display quality of MOV2 may be degraded). . Therefore, it is preferable to take measures to cope with poor reception of metadata.
例えば、対策1に示す通り、あるフレーム(例:フレームi+1)のメタデータが受信できない場合、当該フレームに対応するMOV2のフレーム(例:MOV2のフレームi)に、ブランク画像(例:黒画面)を挿入することも考えられる。対策1では、映像処理装置1rは、MOV2のフレームi~i+2に、ブランク画像を挿入する。
For example, as shown in
対策1によれば、注目領域として本来意図していないMOV1の部分が拡大されることを防止できる。しかしながら、対策1によって生成されたMOV2では、MOV1において本来描画されていた一部のシーンを、ユーザに鑑賞させることができない。このことは、MOV1の鑑賞を望むユーザに不満をもたらす。
According to
このようなユーザの不満を避けるためには、MOV2にブランク画像を挿入しないことが好ましい。そこで、例えば、対策2に示す通り、受信に成功した最新のメタデータを、後続する各フレームにそのまま適用することも考えられる。対策2では、映像処理装置1rは、フレームiのメタデータを用いて、フレームi+1~フレームi+3を拡大することにより、MOV2のフレームi~i+2を生成する。このため、対策2では、フレームi+1~フレームi+3においても、フレームiと同じ拡大率(P)が維持される。
In order to avoid such user dissatisfaction, it is preferable not to insert a blank image into MOV2. Therefore, for example, as shown in
上述の通り、フレームiのメタデータでは、注目領域が中央に設定されている。このため、MOV2のフレームi~i+2は、フレームi+1~フレームi+3の中央部分が拡大された画像となる。しかしながら、上述の通り、フレームi+2~i+3のメタデータでは、注目領域が中央に設定されている。すなわち、フレームi+2~i+3は、本来であれば、中央部分に注目することが意図された画像である。 As described above, in the metadata of frame i, the region of interest is set in the center. Therefore, frames i to i+2 of MOV2 are images obtained by enlarging the central portion of frames i+1 to i+3. However, as described above, in the metadata of frames i+2 to i+3, the region of interest is set in the center. That is, frames i+2 to i+3 are images originally intended to focus attention on the central portion.
このため、対策2によってMOV2を生成した場合、MOV2のフレームi+1~フレームi+2では、本来注目することが意図されていない領域(非注目領域)(例:2人の人物の胴体部分)が、フォーカスされてしまう。このように、対策2によっても、MOV1の表示品位をかえって低下させる事態が生じうるため、MOV1の鑑賞を望むユーザの不満を十分に解消するには至らない。
Therefore, when MOV2 is generated by
(映像処理装置1の処理の一例)
映像処理装置1は、上述の比較例の問題点を踏まえ、本願の発明者によって新たに創作された。以下、映像処理装置1の処理の一例について述べる。映像処理装置1は、映像処理装置1rとは異なり、第1モードおよび第2モードを切り替えて動作可能である。
(Example of processing of video processing device 1)
The
第1モードとは、表示情報を用いてMOV1を処理するモードである。第1モードには、上述のZOOMモードが含まれる。ZOOMモードでは、α=Pに維持される。これに対し、第2モードとは、表示情報を用いずにMOV1を処理するモードである。第2モードには、ORIGINALモードが含まれる。 The first mode is a mode for processing MOV1 using display information. The first mode includes the ZOOM mode described above. In ZOOM mode, α=P is maintained. On the other hand, the second mode is a mode in which MOV1 is processed without using display information. The second mode includes ORIGINAL mode.
ORIGINALモードとは、MOV1と等しいスケールを有しており、かつ、当該MOV1と同じシーンを表現するMOV2を生成するモードである。一例として、ORIGINALモードでは、映像処理装置1は、MOV1のフレームiを、MOV2のフレームi-1として割り当てる。このように、ORIGINALモードでは、時間の経過によらず、α=1に維持される。すなわち、MOV1の本来のスケール(オリジナルスケール)が、一定に維持される。
The ORIGINAL mode is a mode for generating MOV2 that has the same scale as MOV1 and expresses the same scene as MOV1. As an example, in the ORIGINAL mode, the
さらに、第1モードには、上述のZOOMモードに加え、TO_ORIGINALモードが含まれる。TO_ORIGINALモードとは、αをPから1まで徐々に(漸進的に)減少させるモードである。TO_ORIGINALモードは、ZOOMモードとORIGINALモードとの間の中間的なモードと言える。TO_ORIGINALモードを設けることにより、以下に述べるように、ZOOMモードからORIGINALモードへの遷移時における、表示品位の低下を効果的に防止できる。 Furthermore, the first mode includes TO_ORIGINAL mode in addition to the ZOOM mode described above. The TO_ORIGINAL mode is a mode in which α is gradually (gradually) decreased from P to 1. The TO_ORIGINAL mode can be said to be an intermediate mode between the ZOOM mode and the ORIGINAL mode. By providing the TO_ORIGINAL mode, it is possible to effectively prevent deterioration in display quality when transitioning from the ZOOM mode to the ORIGINAL mode, as described below.
以下、第2受信部82が表示情報を受信できる状態を、受信可能状態と称する。他方、第2受信部82が表示情報を受信できない状態を、受信不能状態と称する。表示情報受信判定部120は、第2受信部82の状態(通信状態)が、受信可能状態または受信不能状態のいずれであるかを判定する。表示情報受信判定部120は、公知の通信状態診断技術を用いて実現されてよい。表示情報受信判定部120の判定結果を示す情報(通信状態情報)を生成し、当該通信状態情報を選択部140に供給する。
Hereinafter, a state in which the
シーンチェンジ検出部130は、MOV1を解析することにより、当該MOV1のシーンチェンジの有無を検出する。シーンチェンジ検出部130は、シーンチェンジ検出部130の判定結果を示す情報(シーンチェンジ情報)を生成し、当該シーンチェンジ情報を選択部140に供給する。シーンチェンジの検出は、公知の手法によって行われてよい。
The scene
一例として、シーンチェンジ検出部130は、MOV1の各フレームについて特徴量を導出する。そして、シーンチェンジ検出部130は、あるフレーム(例:フレームi)と次フレーム(例:フレームi+1)との間の特徴量の変化に基づき、当該あるフレームと当該次フレームとの間にシーンチェンジが生じたか否かを判定する。一例として、特徴量は、1つのフレームの全画素の輝度の総和であってよい。また、1つのフレームの各画素の輝度の分布を示すヒストグラム(輝度ヒストグラム)に基づき、特徴量が算出されてもよい。
As an example, the scene
選択部140は、映像処理装置1のモードを選択する。すなわち、選択部140は、第1モードおよび第2モードの一方を選択する。具体的には、選択部140は、ZOOMモード、TO_ORIGINALモード、およびORIGINALモードのうち、1つのモードを選択する。映像処理装置1は、選択部140によって選択されたモードに応じて、MOV1を処理する(すなわち、MOV2を生成する)。
The
上述の通り、メタデータの受信可否(すなわち、第2受信部82の状態)は、MOV2の表示品位に大きく影響する。そこで、選択部140は、通信状態情報に基づき、モードを選択することが好ましい。さらに、MOV1のシーンチェンジの有無も、MOV2の表示品位に大きく影響する。このため、選択部140は、シーンチェンジ情報にさらに基づき、モードを選択することが好ましい。
As described above, whether metadata can be received (that is, the state of the second receiving unit 82) greatly affects the display quality of MOV2. Therefore, it is preferable that the
以下では、選択部140は、通信状態情報およびシーンチェンジ情報の両方に基づき、モードを選択する場合を主に例示する。以下では、映像処理装置1のモードを示すフラグ値を、stateとして表す。一例として、state=ZOOMは、映像処理装置1がZOOMモードで動作していることを示す。その他の表記についても同様である。選択部140は、自身が選択したモードに応じて、stateを更新する。
Below, the case where the
図7は、映像処理装置1の処理の流れを例示するシーケンス図である。図7については、後述の図8~図13の各処理も合わせて参照されたい。図7の例では、時間の経過に伴い、MOV1のシーンが、「シーン1→シーン2→シーン3」の通り変更される。図7の「メタデータ受信状態」は、第2受信部82の状態を示す。「メタデータ受信状態:可」は、受信可能状態を示す。これに対し、「メタデータ受信状態:不可」は、受信不能状態を示す。
FIG. 7 is a sequence diagram illustrating the processing flow of the
まず、シーン1について説明する。図7の例では、シーン1の先頭において、第2受信部82によって、表示情報が受信されているものとする。このため、選択部140によって、ZOOMモード(第1モードの一例)が予め選択されているものとする。シーン1において、第2受信部82が表示情報を受信している期間では、ZOOMモードがそのまま維持される。ZOOMモードでは、拡大率PのMOV2が生成される。
First,
図7の例では、シーン1の途中に、第2受信部82の状態が、受信可能状態から受信不能状態へと遷移している。このような場合にZOOMモードを維持すると、上述の比較例の通り、表示品位の低いMOV2が生成されうる。そこで、選択部140は、第2受信部82の状態が受信可能状態から受信不能状態へと遷移した場合には、ZOOMモードに替えてTO_ORIGINALモードを選択する。TO_ORIGINALモードでは、αがPから1まで徐々に減少するように設定される。このため、注目領域が徐々にMOV1の全体へとズームアウトするように、MOV2の各フレームが生成される。
In the example of FIG. 7, the state of the
図7の例では、シーン2の途中まで、受信不能状態が継続している。そして、この受信不能状態の継続中に、シーン1からシーン2へのシーンチェンジが生じている。図7に示されるように、選択部140は、受信不能状態において、MOV1にシーンチェンジが生じたことを契機として、OGIGINALモード(第2モード)を選択する。ZOOMモードでは、拡大率1のMOV2(オリジナルサイズのMOV2とも称する)が生成される。
In the example of FIG. 7 , the unreceivable state continues until the middle of
図7の例では、シーン2の途中で、受信不能状態が解消されている。そして、この受信不能状態の解消後に、シーン2からシーン3へのシーンチェンジが生じている。図7に示されるように、選択部140は、受信可能状態において、MOV1にシーンチェンジが生じたことを契機として、ZOOMモード(第1モードの一例)を選択する。
In the example of FIG. 7 , the unreceivable state is canceled in the middle of
図8は、映像処理装置1(より具体的には、制御部10)の処理の全体的な流れを例示するフローチャートである。上述の通り、制御部10は、MOV1のフレーム毎に処理を実行する。このため、制御部10は、MOV1の垂直同期信号(Vsync)がONされたことを契機として、処理を開始する。
FIG. 8 is a flowchart illustrating the overall flow of processing of the video processing device 1 (more specifically, the control unit 10). As described above, the
まず、制御部10は、MOV1のタイムススタンプを取得する(S1)。そして、シーンチェンジ検出部130は、MOV1を解析することにより、シーンチェンジ情報を生成する(S2)。以下では、MOV1のシーンチェンジの有無を示すフラグ値を、SCD_Flagとして表す。SCD_Flagは、シーンチェンジ情報の一例である。
First, the
一例として、シーンチェンジ検出部130は、MOV1にシーンチェンジが生じた場合(シーンチェンジ有の場合)、SCD_Flag=Trueとして、SCD_Flagを設定する。これに対し、シーンチェンジ検出部130は、MOV1にシーンチェンジが生じていない場合(シーンチェンジ無の場合)、SCD_Flag=Falseとして、SCD_Flagを設定する。
As an example, when a scene change occurs in MOV1 (when there is a scene change), the scene
続いて、制御部10は、映像処理装置1のモードに応じて(換言すれば、stateに応じて)、MOV1を処理する(S3)。以下、モードに応じた映像処理の例について述べる。
Subsequently, the
(ZOOMモードの例)
図9は、ZOOMモードが予め選択されている場合の、映像処理の流れを例示するフローチャートである。まず、表示情報受信判定部120は、タイムスタンプに応じたメタデータ(すなわち、フレームiのメタデータ)を取得できたか否かを判定する(S11)。
(Example of ZOOM mode)
FIG. 9 is a flowchart illustrating the flow of image processing when the ZOOM mode is preselected. First, the display information
フレームiのメタデータを取得できた場合(S11でYES)、映像処理部110は、当該メタデータに含まれている、フレームiの注目情報を取得する。つまり、映像処理部110は、フレームiの注目領域を特定する。そして、映像処理部110は、当該注目領域をズームインするように、フレームiを拡大する(S12)。すなわち、上述の通り、フレームiが拡大率Pによって拡大された画像が、MOV2のフレームi-1として生成される。
If the metadata of the frame i can be obtained (YES in S11), the
フレームiのメタデータを取得できなかった場合(S11でNO)、シーンチェンジ検出部130は、MOV1において(より具体的には、フレームiにおいて)シーンチェンジが生じたか否か(すなわち、SCD_Flag=Trueであるか否か)を判定する(S13)。
If the metadata of frame i could not be acquired (NO in S11), the scene
SCD_Flag=Trueである場合(S13でYES)、選択部140は、ORIGINALモードを選択する。つまり、選択部140は、ZOOMモードからORIGINALモードへのモード切替を行う。当該モード切替を契機として、映像処理部110は、αを1に設定する(S14)。選択部140は、state=ORIGINALとして、stateを更新する(S15)。
When SCD_Flag=True (YES in S13), the
他方、SCD_Flag=Trueでない場合(すなわち、SCD_Flag=Falseである場合)(S13でNO)、選択部140は、TO_ORIGINALモードを選択する。つまり、選択部140は、ZOOMモードからTO_ORIGINALモードへのモード切替を行う。当該モード切替を契機として、映像処理部110は、PROCESS_CNTを0に設定する(つまり、PROCESS_CNTを初期化する)(S16)。
On the other hand, when SCD_Flag is not True (that is, when SCD_Flag is False) (NO in S13),
後述するように、PROCESS_CNTは、TO_ORIGINALモード(または、実施形態2において述べるTO_ZOOMモード)におけるαの設定に用いられるカウント値である。選択部140は、state=TO_ORIGINALとして、stateを更新する(S17)。
As will be described later, PROCESS_CNT is a count value used for setting α in TO_ORIGINAL mode (or TO_ZOOM mode described in Embodiment 2). The
(TO_ORIGINALモードの例)
図10は、TO_ORIGINALモードが予め選択されている場合の、映像処理の流れを例示するフローチャートである。まず、シーンチェンジ検出部130は、SCD_Flag=Trueであるか否かを判定する(S21)。
(Example of TO_ORIGINAL mode)
FIG. 10 is a flowchart illustrating the flow of video processing when the TO_ORIGINAL mode is preselected. First, the scene
SCD_Flag=Trueである場合(S21でYES)、選択部140は、ORIGINALモードを選択する。つまり、選択部140は、TO_ORIGINALモードからORIGINALモードへのモード切替を行う。当該モード切替を契機として、上述のS14・15と同様の処理が実行される(S22・S23)。
If SCD_Flag=True (YES in S21), the
他方、SCD_Flag=Trueでない場合(S21でNO)、表示情報受信判定部120は、タイムスタンプに応じたメタデータを取得できたか否かを判定する(S24)。S24でYESの場合、選択部140は、TO_ZOOMモードを選択する。つまり、選択部140は、TO_ORIGINALモードからTO_ZOOMモードへのモード切替を行う。選択部140は、state=TO_ZOOMとして、stateを更新する(S25)。
On the other hand, if SCD_Flag=True (NO in S21), the display information
S24でNOの場合、選択部140は、PROCESS_CNT<MAX_CNTであるか否かを判定する(S26)。MAX_CNTは、TO_ORIGINALモードにおいて予め設定されている、PROCESS_CNTの最大値である。MAX_CNTは、拡大率がPから1に戻るまでのフレーム数とも表現できる。一例として、実施形態1では、MAX_CNT=600として設定されている。
In the case of NO in S24, the
PROCESS_CNT<MAX_CNTである場合(S26でYES)、映像処理部110は、現在のPROCESS_CNTに応じたαを設定する。換言すれば、映像処理部110は、αを徐々に減少させる(S27)。そして、映像処理部110は、フレームiを拡大率αによって拡大した画像を、MOV2のフレームi-1として生成する。続いて、映像処理部110は、PROCESS_CNTを1だけインクリメント(カウントアップ)する(S28)。
If PROCESS_CNT<MAX_CNT (YES in S26), the
以上のように、TO_ORIGINALモードでは、PROCESS_CNTが、初期値(0)から1ずつインクリメントされる。そして、最終的には、PROCESS_CNT=MAX_CNTとなる。すなわち、PROCESS_CNT<MAX_CNTという条件が満たされなくなる(S26でNO)。 As described above, in the TO_ORIGINAL mode, PROCESS_CNT is incremented by one from the initial value (0). Finally, PROCESS_CNT=MAX_CNT. That is, the condition PROCESS_CNT<MAX_CNT is no longer satisfied (NO in S26).
S26でNOの場合、S22に進む。すなわち、選択部140は、PROCESS_CNTがMAX_CNT(最大値)まで増加したことを契機として、ORIGINALモードを選択する。このように、選択部140は、PROCESS_CNTがMAX_CNTまで増加した場合(すなわち、αが1まで減少した場合)にも、TO_ORIGINALモードからORIGINALモードへのモード切替を行う。
If NO in S26, proceed to S22. That is, the
図11は、TO_ORIGINALモードにおける拡大処理について説明する図である。TO_ORIGINALモードでは、αがPから徐々に減少する。すなわち、TO_ORIGINALモードでは、ATTが、対応ズーム領域ZTTへと縮小される。換言すれば、TO_ORIGINALモードは、MOV1が、P以下の拡大率によって、ZTTへと拡大されるモードである。 FIG. 11 is a diagram illustrating enlargement processing in the TO_ORIGINAL mode. In TO_ORIGINAL mode, α is gradually decreased from P. That is, in TO_ORIGINAL mode, ATT is reduced to the corresponding zoom area ZTT. In other words, the TO_ORIGINAL mode is a mode in which MOV1 is expanded to ZTT by an expansion factor of P or less.
図11の例において、ZTTの4つの頂点のうち左上の頂点を、頂点ZS(xs,ys)とする。頂点ZSは、原点Oおよび頂点AS0に対応する。また、ZTTの4つの頂点のうち右下の頂点を、頂点ZE(xe,ye)とする。頂点ZEは、頂点Eおよび頂点AE0に対応する。 In the example of FIG. 11, let the upper left vertex of the four vertices of ZTT be the vertex ZS (xs, ys). Vertex ZS corresponds to origin O and vertex AS0. Also, let the lower right vertex of the four vertices of ZTT be vertex ZE (xe, ye). Vertex ZE corresponds to vertex E and vertex AE0.
TO_ORIGINALモードでは、映像処理部110は、受信に成功した最新のメタデータに含まれる注目情報を用いて、ATTを特定する(すなわち、xs0、ys0、ys0、およびye0を特定する)。そして、映像処理部110は、以下の式(2A)~(2D)、
In the TO_ORIGINAL mode, the
に基づき、xs、ys、ys、およびyeを算出する。 xs, ys, ys, and ye are calculated based on
また、TO_ORIGINALモードにおける拡大率αについて、
α×(xe-xs)=SIZEX-1 …(3A)
α×(ye-ys)=SIZEY-1 …(3B)
の関係が成立する。
Also, regarding the enlargement factor α in the TO_ORIGINAL mode,
α×(xe-xs)=SIZEX-1 (3A)
α×(ye-ys)=SIZEY-1 (3B)
relationship is established.
そこで、TO_ORIGINALモードにおいて、映像処理部110は、上述の式(3A)または(3B)のいずれかに基づき、αを算出する。そして、映像処理部110は、当該αを用いてMOV1を拡大することにより、MOV2を生成する。
Therefore, in the TO_ORIGINAL mode, the
上述の式(2A)~(2D)に示される通り、PROCESS_CNT=0である場合、ZTTはATTと同一の領域となる。このため、映像処理部110は、αをP(TO_ORIGINALモードにおける最大値)に設定する。
As shown in equations (2A)-(2D) above, when PROCESS_CNT=0, ZTT is the same region as ATT. Therefore, the
また、PROCESS_CNT=MAX_CNTである場合、ZTTはMOV1と同一の領域となる。このため、映像処理部110は、αを1(TO_ORIGINALモードにおける最大値)に設定する。
Also, when PROCESS_CNT=MAX_CNT, ZTT is the same area as MOV1. Therefore, the
さらに、上述の式(3A)~(3B)からも理解されるように、PROCESS_CNTが大きくなるにつれて、αは減少する。つまり、ATTが徐々にズームアウトされるように、ZTTが設定される。図12は、PROCESS_CNTの増加に応じたZTTの変化の一例を示す図である。図12の例では、PROCESS_CNT=0~4の場合が例示されている。図12からも、PROCESS_CNTの増加に伴い、αが減少することが理解できる。 Furthermore, as can be seen from equations (3A)-(3B) above, α decreases as PROCESS_CNT increases. That is, ZTT is set such that ATT is gradually zoomed out. FIG. 12 is a diagram showing an example of changes in ZTT according to an increase in PROCESS_CNT. In the example of FIG. 12, PROCESS_CNT=0 to 4 are illustrated. Also from FIG. 12, it can be understood that α decreases as PROCESS_CNT increases.
以上のように、TO_ORIGINALモードでは、αは、最大値としてPをとり、かつ、最小値として1をとる、PROCESS_CNTの単調減少関数として設定されている。実施形態1の例では、αは、PROCESS_CNTの増加に応じて(換言すれば、時刻tの増加に応じて)、線形的に減少するように設定されている。
As described above, in the TO_ORIGINAL mode, α is set as a monotonically decreasing function of PROCESS_CNT with P as the maximum value and 1 as the minimum value. In the example of
上述の説明から理解されるように、TO_ORIGINALモードでは、MAX_CNTが大きく設定されている場合には、低速で(緩やかに)ズームアウトが行われる。他方、MAX_CNTが大きく設定されている場合には、高速でズームアウトが行われる。 As can be understood from the above description, in the TO_ORIGINAL mode, when MAX_CNT is set large, zooming out is performed at a low speed (gradually). On the other hand, when MAX_CNT is set large, zooming out is performed at high speed.
一般的な映像コンテンツ(例:映画またはドラマ)では、多くの場合、シーンチェンジの間隔は、5~10秒程度である。このため、TO_ORIGINALモードの持続期間が5~10秒程度に設定されていれば、MOV2を鑑賞するユーザに違和感に与える可能性を少なくできると期待される。 In general video content (eg movies or dramas), the interval between scene changes is often about 5 to 10 seconds. Therefore, if the duration of the TO_ORIGINAL mode is set to about 5 to 10 seconds, it is expected that the possibility of causing discomfort to the user watching MOV2 can be reduced.
以上の点を踏まえ、一例として、MOV1のフレームレートが60Hzである場合には、MAX_CNTは、300~600程度に設定されることが好ましい。MAX_CNTは、MOV1の仕様等を考慮し、適宜設定されてよい。 Based on the above points, as an example, when the frame rate of MOV1 is 60 Hz, MAX_CNT is preferably set to about 300-600. MAX_CNT may be appropriately set in consideration of the specifications of MOV1.
(ORIGINALモードの例)
図13は、ORIGINALモードが予め選択されている場合の、映像処理の流れを例示するフローチャートである。
(Example of ORIGINAL mode)
FIG. 13 is a flowchart illustrating the flow of video processing when the ORIGINAL mode has been selected in advance.
まず、表示情報受信判定部120は、タイムスタンプに応じたメタデータを取得できたか否かを判定する。また、シーンチェンジ検出部130は、MOV1のシーンチェンジの有無を判定する。ORIGINALモードでは、制御部10は、「タイムスタンプに応じたメタデータを取得できており、かつ、SCD_Flag=Trueであるか否か」を判定する(S31)。
First, the display information
S31でNOの場合、すなわち、(i)「タイムスタンプに応じたメタデータを取得できなかった場合」、および、(ii)「SCD_Flag=Falseであった場合」、の少なくとも一方の場合には、ORIGINALモードがそのまま維持される。 In the case of NO in S31, that is, in the case of at least one of (i) ``the metadata corresponding to the time stamp could not be obtained'' and (ii) ``the SCD_Flag=False'', ORIGINAL mode remains unchanged.
他方、S31でYESの場合、選択部140は、ZOOMモードを選択する。つまり、選択部140は、ORIGINALモードからZOOMモードへのモード切替を行う。当該モード切替を契機として、上述のS12と同様の処理が実行される(S32)。そして、選択部140は、state=ZOOMとして、stateを更新する(S33)。
On the other hand, if S31 is YES, the
(効果)
上述の通り、従来技術では、メタデータの受信に失敗した場合の対策について、何ら言及されていない。すなわち、従来技術では、「第1モードと第2モードとを切り替える」という技術的思想についても、何ら考慮されていない。これに対し、映像処理装置1によれば、第1モードと第2モードとを切り替えることで、状況に応じた(例:第2受信部の状態に応じた)、適切な映像処理を行うことができる。それゆえ、映像処理装置1によれば、従来に比べて表示品位の高いMOV2を提供できる。
(effect)
As described above, the prior art does not mention any measures to be taken when metadata reception fails. That is, in the prior art, the technical concept of "switching between the first mode and the second mode" is not considered at all. On the other hand, according to the
続いて、図14および図15を参照し、映像処理装置1のさらなる効果について述べる。図14は、実施形態1におけるαの時間変化について例示する図である。図14のグラフの横軸はt(時刻)を、縦軸はα(拡大率)をそれぞれ表す。図14の例では、簡単のために、MOV1のシーンチェンジは生じないものとする。以下、図14の例を、事例1とも称する。
Next, further effects of the
事例1では、初期時刻(t=0)からt11まで、受信可能状態が持続している。このため、初期時刻からt11までは、ZOOMモードが選択される。ZOOMモードでは、αはPに維持される。
In
そして、事例1では、t11において、第2受信部82が、受信可能状態から受信不能状態へと遷移している。この受信不能状態は、復旧されずにそのまま持続するものとする。t11において、第2受信部82が受信不能状態に至った(メタデータの受信に失敗した)ことを契機として、TO_ORIGINALモードが選択される。従って、t11以降では、tの増加に応じて、αが線形的に減少する。但し、TO_ORIGINALモードにおけるαの減少態様は、図14の例に限定されない。例えば、αは、tの増加に応じて非線形的に減少するように設定されてもよい。
In
事例1では、TO_ORIGINALモードにおけるαの減少の結果、t12において、αが1(最小値)に減少した。このため、t12において、αが1となったことを契機として、ORIGINALモードが選択される。ORIGINALモードでは、αは1に維持される。
In
図14から理解されるように、ZOOMモードからORIGINALモードへの切替を直接的に行った場合(後述の参考例の場合)には、αがPから1へと瞬時的に変化する。このため、ZOOMモードからORIGINALモードへの切替時に、MOV2の表示品位が低下しうる。例えば、当該切替時に、MOV2を鑑賞するユーザに違和感を与えてしまう場合がある。 As can be understood from FIG. 14, when the ZOOM mode is directly switched to the ORIGINAL mode (in the case of the reference example described later), α changes from P to 1 instantaneously. Therefore, the display quality of MOV2 may deteriorate when switching from the ZOOM mode to the ORIGINAL mode. For example, at the time of switching, the user viewing MOV2 may feel uncomfortable.
他方、ZOOMモードとORIGINALモードとの間に、TO_ORIGINALモードを介在させることによって、時間の経過に応じてαを滑らかに減少させることができる。このように、TO_ORIGINALモードを介して、ZOOMモードからORIGINALモードへの切替を行うことにより、ORIGINALモードへの切替時に、表示品位がより高いMOV2(上記違和感がより少ない映像)を提供できる。 On the other hand, by interposing the TO_ORIGINAL mode between the ZOOM mode and the ORIGINAL mode, α can be smoothly decreased over time. In this way, by switching from the ZOOM mode to the ORIGINAL mode via the TO_ORIGINAL mode, it is possible to provide MOV2 with higher display quality (video with less discomfort) when switching to the ORIGINAL mode.
図15は、図6(比較例)との対比によって映像処理装置1の効果を説明する図である。図15に示されるように、映像処理装置1では、映像処理装置1rとは異なり、フレームi+1のメタデータの受信に失敗したことを契機として、ZOOMモードからTO_ORIGINALモードへのモード切替が行われる。
FIG. 15 is a diagram for explaining the effect of the
また、映像処理装置1では、フレームi+2(受信不能状態下の1つのフレーム)においてMOV1のシーンチェンジが生じたことを契機として、TO_ORIGINALモードからORIGINALモードへのモード切替が行われる。このため、上述の図14からも理解される通り、映像処理装置1rに比べても、MOV2の表示品位を向上させることができる。
Also, in the
(参考例との対比)
図16は、参考例との対比によって映像処理装置1の効果を説明する図である。参考例では、実施形態1とは異なり、第1モードにTO_ORIGINALモードが含まれていない。このため、参考例では、ZOOMモードとORIGINALモードとの間での切り替えのみが行われる。
(Comparison with reference example)
FIG. 16 is a diagram for explaining the effect of the
図16の例においても、図15の例と同様に、受信不能状態下においてMOV1のシーンチェンジが生じている。参考例では、当該シーンチェンジを契機として、ZOOMモードからORIGINALモードへのモード切替が行われる。このため、参考例では、当該切替時にαがPから1に瞬時的に変化したことに起因し、MOV2のフラッシング(flashing)(ちらつき)が生じうる。 In the example of FIG. 16, similarly to the example of FIG. 15, the scene change of MOV1 occurs under the unreceivable state. In the reference example, mode switching from the ZOOM mode to the ORIGINAL mode is performed with the scene change as a trigger. Therefore, in the reference example, flashing (flickering) of MOV2 may occur due to the momentary change of α from P to 1 at the time of switching.
これに対し、実施形態1の映像処理装置1によれば、上述の通り、上記シーンチェンジを契機として、ZOOMモードからTO_ORIGINALモードへのモード切替が行われる。TO_ORIGINALモードを設けることにより、参考例とは異なり、αの瞬時的な変化が生じることを防止できる。すなわち、フラッシングを有効に防止できる。
In contrast, according to the
一般に、第2受信部が受信不能状態に至るタイミングについては、事前に予測することが難しい。また、MOV1にシーンチェンジが生じるタイミングも、当該MOV1の内容によって相違する。しかしながら、実施形態1によれば、TO_ORIGINALモードを設けることにより、上述の各タイミングの予測を要することなく、フラッシングを防止することが可能となる。 In general, it is difficult to predict in advance the timing at which the second receiving section will reach the unreceivable state. Also, the timing at which a scene change occurs in MOV1 differs depending on the content of MOV1. However, according to the first embodiment, by providing the TO_ORIGINAL mode, it is possible to prevent flushing without requiring the above-described prediction of each timing.
〔実施形態2〕
実施形態2では、TO_ZOOMモードについて説明する。TO_ZOOMモードは、TO_ORIGINALモードと対になるモードである。TO_ZOOMモードでは、TO_ORIGINALモードとは異なり、αが徐々に増加するように設定される。TO_ZOOMモードも、第1モードに含まれる。
[Embodiment 2]
(TO_ZOOMモードの例)
図17は、実施形態2において、TO_ZOOMモードが予め選択されている場合の、映像処理の流れを例示するフローチャートである。以下に述べるように、図17の例では、PROCESS_CNTをデクリメント(カウントダウン)することにより、αが設定される。
(Example of TO_ZOOM mode)
FIG. 17 is a flowchart illustrating the flow of video processing when the TO_ZOOM mode is selected in advance in the second embodiment. As described below, in the example of FIG. 17, α is set by decrementing (counting down) PROCESS_CNT.
なお、TO_ZOOMモードの開始時には、PROCESS_CNTは、初期値(TO_ZOOMモードの開始時のαに対応する所定の値)に設定されている。当該初期値は、0~CNT_MAXの範囲の任意の整数値をとりうる。図17についての以下の説明では、初期値が0よりも大きい場合を例示する。
At the start of the TO_ZOOM mode, PROCESS_CNT is set to an initial value (predetermined value corresponding to α at the start of the TO_ZOOM mode). The initial value can take any integer value in the
まず、選択部140は、0<PROCESS_CNTであるか否かを判定する(S41)S41でYESの場合、映像処理部110は、現在のPROCESS_CNTに応じたαを設定する。
First, the
TO_ZOOMモードにおいても、映像処理部110は、受信に成功した最新のメタデータに含まれる注目情報を用いて、ATTを特定する(すなわち、xs0、ys0、ys0、およびye0を特定する)。そして、映像処理部110は、上述の式(2A)~(2D)に基づき、xs、ys、ys、およびyeを算出する。
Also in the TO_ZOOM mode, the
TO_ZOOMモードにおいても、拡大率αについて、上述の(3A)~(3B)の関係が成立する。従って、TO_ZOOMモードにおいても、映像処理部110は、上述の式(3A)または(3B)のいずれかに基づき、αを算出してよい。上述の通り、PROCESS_CNTが小さくなるにつれて、αが増加する。それゆえ、図17の処理の通りPROCESS_CNTをデクリメントすることで、αを徐々に増加させることができる(S42)。例えば、αを、PROCESS_CNTの減少に応じて(換言すれば、時刻tの増加に応じて)、線形的に減少させることができる。
Also in the TO_ZOOM mode, the above-described relationships (3A) to (3B) are established with respect to the enlargement factor α. Therefore, even in the TO_ZOOM mode, the
そして、映像処理部110は、フレームiを拡大率αによって拡大した画像を、MOV2のフレームi-1として生成する。続いて、映像処理部110は、PROCESS_CNTを1だけデクリメントする(S43)。このように、TO_ZOOMモードでは、TO_ORIGINALモードとは異なり、ATTが徐々にズームインされるように、ZTTが設定される。
Then, the
以上のように、TO_ZOOMモードでは、PROCESS_CNTが、初期値(TO_ZOOMモードにおける最大値)から1ずつデクリメントされる。そして、最終的には、PROCESS_CNT=0となる。すなわち、0<PROCESS_CNTという条件が満たされなくなる(S41でNO)。
As described above, in TO_ZOOM mode, PROCESS_CNT is decremented by one from the initial value (maximum value in TO_ZOOM mode). Finally, PROCESS_CNT=0. That is, the
S41でNOの場合、PROCESS_CNT=0であるため、映像処理部110は、α=Pに設定する(S44)。そして、選択部140は、ZOOMモードを選択する。以上の通り、選択部140は、PROCESS_CNTが0(最小値)まで減少したことを契機として、TO_ZOOMモードからZOOMモードへのモード切替を行う。選択部140は、state=ZOOMとして、stateを更新する(S45)。
In the case of NO in S41, since PROCESS_CNT=0, the
(事例2)
図18は、実施形態2におけるαの時間変化について例示する図である。以下、図18の例を、事例2とも称する。事例2では、初期時刻からt21まで、受信可能状態が持続している(すなわち、ZOOMモードが維持されている)。そして、t21において、第2受信部82が、受信可能状態から受信不能状態へと遷移している。その後、t22において、この受信不能状態が解消された。
(Case 2)
FIG. 18 is a diagram illustrating temporal change of α in the second embodiment. The example of FIG. 18 is also referred to as
このため、事例2では、t21からt22までの期間において、TO_ORIGINALモードが選択される(図9・10も参照)。ここで、t22におけるαを、α22と称する。事例2では、α22>1であるものとする。つまり、事例2では、αが1に減少するまでの所定の時点(t22)において、受信不能状態が解消されたものとする。
Therefore, in
実施形態2では、選択部140は、t22において、映像処理装置1のモードをTO_ORIGINALモードからTO_ZOOMモードに切り替える(図10も参照)。すなわち、選択部140は、αが1に減少するまでの所定の時点において、受信不能状態が解消されたことを契機として、TO_ZOOMモードを選択する。α22は、TO_ZOOMモードにおけるαの初期値の一例である。
In the second embodiment, at t22, the
図18の例では、TO_ZOOMモードにおいて、映像処理装置1(より具体的には、映像処理部110)は、tの増加に応じて、αを線形的に増加させる。但し、TO_ZOOMモードにおけるαの増加態様は、図18の例に限定されない。例えば、αは、tの増加に応じて非線形的に増加するように設定されてもよい。 In the example of FIG. 18, in the TO_ZOOM mode, the video processing device 1 (more specifically, the video processing unit 110) linearly increases α as t increases. However, the mode of increasing α in the TO_ZOOM mode is not limited to the example of FIG. For example, α may be set to increase non-linearly as t increases.
事例2では、TO_ZOOMモードにおけるαの増加の結果、t23において、αがPに増加した。選択部140は、t23において、αがPとなったことを契機として、ZOOMモードを選択する(図17も参照)。
In
事例1と同様に、仮に、ORIGINALモードからZOOMモードへの切替を直接的に行った場合には、αが1からPへと瞬時的に変化する。このため、ZOOMモードへの切替時に、MOV2の表示品位が低下しうる。例えば、当該切替時に、MOV2を鑑賞するユーザに違和感を与えてしまう場合がある。そこで、実施形態2では、ZOOMモードとORIGINALモードとの間の中間的なモードとして、TO_ZOOMモードがさらに設けられている。
As in
ORIGINALモードとZOOMモードとの間に、TO_ZOOMモードを介在させることによって、時間の経過に応じてαを滑らかに増加させることができる。このように、TO_ZOOMモードを介して、ORIGINALモードからZOOMモードへの切替を行うことにより、ZOOMモードへの切替時に、表示品位がより高いMOV2(上記違和感がより少ない映像)を提供できる。 By interposing the TO_ZOOM mode between the ORIGINAL mode and the ZOOM mode, α can be smoothly increased over time. In this way, by switching from the ORIGINAL mode to the ZOOM mode via the TO_ZOOM mode, it is possible to provide MOV2 with higher display quality (video with less discomfort) when switching to the ZOOM mode.
〔実施形態3〕
図19は、実施形態3におけるαの時間変化について例示する図である。以下、図19の例を、事例3とも称する。事例3では、初期時刻からt31まで、受信可能状態が持続している(すなわち、ZOOMモードが維持されている)。そして、t31において、第2受信部82が、受信可能状態から受信不能状態へと遷移した。このため、t31において、TO_ORIGINALモードが選択される。その後、t33まで、受信可能状態と受信不能状態とが断続的に切り替わる状態が継続した。
[Embodiment 3]
FIG. 19 is a diagram illustrating temporal change of α in the third embodiment. The example of FIG. 19 is also referred to as
事例3では、事例2とは異なり、選択部140は、受信可能状態が所定の時間(以下、tss)に亘り維持されない限り、映像処理装置1の現在のモードをそのまま維持する(以下の図20も参照)。一例として、tssは、10~20秒程度である。受信可能状態と受信不能状態とが断続的に切り替わる状況下において、個別の受信可能状態と受信不能状態との切替毎にモードを変更すると、かえってMOV2の視認性が低下すると懸念されるためである。このため、事例3では、t31以降でも、TO_ORIGINALモードが維持される。
In
事例3では、TO_ORIGINALモードにおけるαの減少の結果、t32において、αが1に減少した。t32は、t33よりも前の時点であるものとする。t32において、αが1となったことを契機として、ORIGINALモードが選択される。
In
そして、t33において、受信可能状態と受信不能状態とが断続的に切り替わる状態が解消された。図19に示すように、t33以降では、受信可能状態が維持されるものとする。事例3では、選択部140は、t34において、TO_ZOOMモードを選択する(図20も参照)。t34は、t33からtssだけ経過した時点であり、t34=t33+tssとして表される。
Then, at t33, the intermittent switching between the receivable state and the unreceivable state is resolved. As shown in FIG. 19, the receivable state is maintained after t33. In
このように、選択部140は、第2モード(例:ORIGINALモード)が予め選択されていた場合、受信不能状態が解消された状態が所定の時間に亘り維持されたことを契機として、第1モード(例:TO_ZOOMモード)を選択してよい。事例3では、映像処理装置1は、TO_ZOOMモードにおいて、α1から増加させる。
In this way, when the second mode (eg, ORIGINAL mode) is selected in advance, the
TO_ZOOMモードにおけるαの増加の結果、t35において、αがPに増加した。選択部140は、t35において、αがPとなったことを契機として、ZOOMモードを選択する。
The increase in α in TO_ZOOM mode resulted in α increasing to P at t35. The
事例3の処理によれば、事例2の処理とは異なり、受信可能状態と受信不能状態との一時的な切替を無視して、モードを選択できる。このため、第2受信部82(あるいはNT2)の通信状態の安定性が低いと考えられる場合には、事例2に替えて事例3の処理を採用することが好ましい。
According to the processing of
(ORIGINALモードの別の例)
図20は、実施形態3において、ORIGINALモードが予め選択されている場合の映像処理の流れを例示するフローチャートである。実施形態3では、ORIGINALモードが予め選択されている場合には、図13のフローチャートに替えて、図20のフローチャートが適用される。以下の説明におけるt34は、現時点(但し、t33よりも後の時点)を表すものとする。
(another example of ORIGINAL mode)
FIG. 20 is a flowchart illustrating the flow of video processing when the ORIGINAL mode is preselected in the third embodiment. In
まず、表示情報受信判定部120は、タイムスタンプに応じたメタデータを取得できたか否かを判定する。加えて、制御部10は、「t34-t33>tss」という条件が満たされているか否かを判定する。すなわち、実施形態3のORIGINALモードでは、制御部10は、「タイムスタンプに応じたメタデータを取得できており、かつ、t34-t33>tssであるか否か」を判定する(S51)。
First, the display information
S51でNOの場合、すなわち、(i)「タイムスタンプに応じたメタデータを取得できなかった場合」、および、(ii)「t34-t33≦tssであった場合」、の少なくとも一方の場合には、ORIGINALモードがそのまま維持される。 In the case of NO in S51, that is, in at least one of (i) ``the metadata corresponding to the time stamp could not be obtained'' and (ii) ``t34-t33≤tss''. , the ORIGINAL mode is maintained as it is.
他方、S51でYESの場合、選択部140は、TO_ZOOMモードを選択する。つまり、選択部140は、ORIGINALモードからTO_ZOOMモードへのモード切替を行う。
On the other hand, if S51 is YES, the
当該モード切替を契機として、映像処理部110は、PROCESS_CNT=MAX_CNTに設定する(S52)。このようにPROCESS_CNTを設定することにより、TO_ZOOMモードにおけるαの初期値を1に設定できる。そして、選択部140は、state=TO_ZOOMとして、stateを更新する(S53)。
Triggered by the mode switching, the
〔実施形態4〕
図21は、実施形態4におけるαの時間変化について例示する図である。以下、図21の例を、事例4とも称する。事例4におけるメタデータ受信状態の時間変化の様子は、事例3と同様である。事例4では、事例3とは異なり、MOV1のシーンチェンジの有無をさらに考慮して、モード切替が行われる。なお、実施形態4では、ORIGINALモードが予め選択されている場合には、図13のフローチャートが適用される。
[Embodiment 4]
FIG. 21 is a diagram illustrating temporal change of α in the fourth embodiment. The example of FIG. 21 is also referred to as
事例4における初期時刻からt43までのモードの推移の様子(αの変化の様子)は、事例3における初期時刻からt33までのモードの推移の様子と同様である。t43は、事例4において、受信可能状態と受信不能状態とが断続的に切り替わる状態が解消された時点である。
The mode transition (change of α) from the initial time to t43 in
図21に示すように、事例4では、t43に後続する時刻t44において、MOV1のシーンチェンジが生じている。実施形態1にても説明した通り、第2モード(例:ORIGINALモード)が予め選択されていた場合、選択部140は、受信可能状態において、MOV1のシーンチェンジが生じたことを契機として、第1モード(例:ZOOMモード)を選択してよい。事例4では、選択部140は、t44において、ORIGINALモードからZOOMモードへのモード切替を行う。
As shown in FIG. 21, in
シーンチェンジが生じた場合、シーンチェンジ直前のフレームとシーンチェンジ直後のフレームとで、注目領域の設定(例:注目領域の位置および大きさの少なくともいずれか)が有意に異なることも考えられる。このような場合、シーンチェンジ直前のフレームにおける注目情報を用いて、TO_ZOOMモードの動作を実行すると、MOV2を鑑賞するユーザにかえって違和感を与えることも懸念される。TO_ZOOMモードにおけるMOV2では、本来注目すべき領域(シーンチェンジ直後のフレームの注目領域)が、十分に強調されない可能性があるためである。 When a scene change occurs, it is conceivable that the setting of the attention area (for example, at least one of the position and size of the attention area) is significantly different between the frame immediately before the scene change and the frame immediately after the scene change. In such a case, if the attention information in the frame immediately before the scene change is used to execute the operation of the TO_ZOOM mode, there is a concern that the user viewing MOV2 may feel uncomfortable. This is because, in MOV2 in the TO_ZOOM mode, there is a possibility that the area that should be focused on (the focused area of the frame immediately after the scene change) will not be sufficiently emphasized.
そこで、上述の通り、第2受信部82が受信可能状態にある場合には、シーンチェンジ時に、TO_ZOOMモードを介在させずに、ORIGINALモードからZOOMモードへの切替えを行ってもよい。シーンチェンジ時には、αを1からPまで瞬時に増加させた方が、ユーザにとって違和感が少ない映像を提供できる場合もあるためである。
Therefore, as described above, when the
〔実施形態5〕
図22は、実施形態5におけるαの時間変化について例示する図である。以下、図22の例を、事例5とも称する。事例5では、事例4と同様に、MOV1のシーンチェンジの有無を考慮して、モード切替が行われる。
[Embodiment 5]
FIG. 22 is a diagram illustrating temporal change of α in the fifth embodiment. The example of FIG. 22 is also referred to as case 5 below. In case 5, as in
事例5では、初期時刻からt51まで、受信可能状態が持続している。事例5では、t51において、第2受信部82が受信可能状態から受信不能状態へと遷移し、この受信不能状態が復旧されずにそのまま持続する。このため、事例5では、t51において、TO_ORIGINALモードが選択される。従って、t51以降では、tの増加に応じて、αが減少する。
In case 5, the receivable state continues from the initial time to t51. In case 5, at t51, the
事例5では、t51に後続する時刻t52において、MOV1のシーンチェンジが生じている。ここで、t52におけるαを、α52と称する。事例5では、α52>1であるものとする。つまり、事例5では、αが1に減少するまでの所定の時点(t52)において、シーンチェンジが生じたものとする。 In case 5, a scene change of MOV1 occurs at time t52 following t51. Here, α at t52 is referred to as α52. In case 5, it is assumed that α52>1. That is, in Case 5, it is assumed that a scene change occurs at a predetermined time (t52) before α decreases to one.
第1モード(例:TO_ORIGINALモード)が予め選択されていた場合、選択部140は、受信不能状態において、MOV1のシーンチェンジが生じたことを契機として、第2モード(ORIGINALモード)を選択してよい。事例5では、選択部140は、t52において、TO_ORIGINALモードからORIGINALモードへのモード切替を行う。
If the first mode (eg, TO_ORIGINAL mode) has been selected in advance, the
以上のように、第2受信部82が受信不能状態にある場合には、シーンチェンジ時に、αをα52から1に瞬時に減少させてもよい。事例4と同様の趣旨により、シーンチェンジ時には、αを瞬時に減少させた方が、ユーザにとって違和感が少ない映像を提供できることも考えられるためである。
As described above, when the
図23は、実施形態1との対比によって実施形態5の効果を説明する図である。図23は、図16と対になる図である。図23にも示される通り、実施形態5では、実施形態1とは異なり、TO_ORIGINALモードにおいてαが1まで減少する前の時点であっても、受信不能状態下においてMOV1のシーンチェンジが生じた場合には、TO_ORIGINALモードからORIGINALモードへのモード切替が行われる。 FIG. 23 is a diagram for explaining the effect of the fifth embodiment by comparing with the first embodiment. FIG. 23 is a diagram paired with FIG. As shown in FIG. 23, in the fifth embodiment, unlike the first embodiment, even before α decreases to 1 in the TO_ORIGINAL mode, when a scene change occurs in MOV1 under the unreceivable state, , the mode is switched from the TO_ORIGINAL mode to the ORIGINAL mode.
シーンチェンジに起因するMOV2の違和感を低減させたい場合には、実施形態5のモード切替手法を採用することが好ましい。これに対し、MOV2のフラッシングを解消したい場合には、実施形態1のモード切替手法を採用することが好ましい。実施形態1または5のいずれのモード切替手法を採用するかについては、MOV1の仕様等に応じ、映像処理装置1の設計者によって適宜選択されてよい。
It is preferable to adopt the mode switching method of the fifth embodiment when it is desired to reduce the discomfort of MOV2 caused by scene changes. On the other hand, when it is desired to eliminate the flashing of MOV2, it is preferable to adopt the mode switching method of the first embodiment. A designer of the
〔変形例〕
(1)上述の説明では、MOV1を解析することにより、当該MOV1のシーンチェンジの有無を判定する場合を例示した。但し、一部の放送システム1000では、表示情報にシーンチェンジ情報がさらに含まれている場合もある。この場合、第2受信部82によって、NT2からシーンチェンジ情報を取得できる。
[Modification]
(1) In the above description, by analyzing MOV1, it is determined whether or not there is a scene change in MOV1. However, in some
但し、第2受信部82が受信不能状態に陥った場合には、NT2からシーンチェンジ情報を取得できなくなる。このため、制御部10にシーンチェンジ検出部130が設けられていることが好ましい。例えば、事例5の処理は、制御部10にシーンチェンジ検出部130が設けられていることを前提としている。
However, if the
(2)上述の説明では、MOV1の各フレームの特徴量に基づき、当該MOV1のシーンチェンジの有無を判定する場合を例示した。但し、シーンチェンジ検出部130は、放送波を解析することにより、上記特徴量を導出してもよい。この場合にも、当該特徴量に基づきMOV1のシーンチェンジの有無を判定できる。
(2) In the above description, the case of determining whether or not there is a scene change in MOV1 based on the feature amount of each frame of MOV1 has been exemplified. However, the scene
(3)上述の説明では、注目情報は、ATT(注目領域)の2つの対頂点(原点Oおよび頂点E)の座標を示す情報を含んでいる場合を例示した。但し、注目情報は、XY平面上におけるATTの位置を一意的に特定できる情報であればよく、上記の例に限定されない。 (3) In the above description, attention information includes information indicating the coordinates of two paired vertices (origin O and vertex E) of ATT (attention area). However, the information of interest is not limited to the above examples as long as it is information that can uniquely specify the position of the ATT on the XY plane.
一例として、注目情報には、(i)ATTの中心の座標と、(ii)当該ATTの幅(以下、W0)および高さ(以下、H0)、とを示す情報が含まれていてもよい。これらの情報によっても、ATTの位置を一意的に特定できるためである。以下、ATTの中心を、点C(xc0,yc0)と表す。 As an example, the attention information may include information indicating (i) the coordinates of the center of the ATT and (ii) the width (hereinafter W0) and height (H0) of the ATT. . This is because the position of the ATT can be uniquely specified also by these pieces of information. Hereinafter, the center of ATT is represented as point C (xc0, yc0).
例えば、図3の例の場合には、
W0=xe0-xs0…(4A)
H0=ye0-ys0…(4B)
xc=(xs0+xe0)/2…(4C)
yc=(xs0+xe0)/2…(4D)
の関係が成立する。このため、xcとycとW0とH0とが既知であれば、ATTの上記2つの対頂点の位置(すなわち、xs0とys0とxe0とye0)を特定できる。
For example, in the case of the example in FIG.
W0=xe0-xs0 (4A)
H0=ye0-ys0 (4B)
xc=(xs0+xe0)/2 (4C)
yc=(xs0+xe0)/2 (4D)
relationship is established. Therefore, if xc, yc, W0, and H0 are known, the positions of the two paired vertices of ATT (that is, xs0, ys0, xe0, and ye0) can be specified.
あるいは、注目情報には、(i)点Cの座標に加え、(ii)W0またはH0の一方を示す情報が含まれていてもよい。すなわち、W0およびH0の一方(例:W)が既知であれば、MOV1のアスペクト比に基づいて、他方(例:H)を算出できるためである。 Alternatively, the attention information may include (i) the coordinates of the point C and (ii) information indicating either W0 or H0. That is, if one of W0 and H0 (eg W) is known, the other (eg H) can be calculated based on the aspect ratio of MOV1.
例えば、MOV1のアスペクト比が、横:縦=16:9である場合を考える。この場合、H0=(9/16)×W0である。このように、注目情報には、(i)点Cの座標を示す情報と、(ii)W0およびH0の少なくとも一方と、を示す情報が含まれていればよい。 For example, consider a case where the aspect ratio of MOV1 is horizontal:vertical=16:9. In this case, H0=(9/16)*W0. In this way, the attention information may include (i) information indicating the coordinates of the point C and (ii) information indicating at least one of W0 and H0.
(4)選択部140のモード選択手法は、上述の各例に限定されない。一例として、選択部140は、ユーザ操作に基づき、モード選択を行ってもよい。この場合、第2受信部82の状態(あるいは、MOV1のシーンチェンジの有無)によらず、所望のモードをユーザに選択させることができる。
(4) The mode selection method of the
例えば、一部のユーザは、第2受信部82の受信状態によらず、オリジナルスケールの映像の視聴を希望することも考えられる。そこで、選択部140は、第2受信部82が受信可能状態である場合にも、ユーザ操作に応じて、第2モードを選択してもよい。このように、選択部140にユーザ操作に応じてモード選択を行わせることにより、ユーザの利便性をさらに向上させることができる。
For example, it is conceivable that some users wish to view the original scale video regardless of the reception state of the
〔ソフトウェアによる実現例〕
表示装置100の制御ブロック(特に制御部10)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of realization by software]
A control block (particularly, the control unit 10) of the
後者の場合、表示装置100は、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば少なくとも1つのプロセッサ(制御装置)を備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な少なくとも1つの記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔付記事項〕
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成できる。
[Additional notes]
The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.
1 映像処理装置
10 制御部
81 第1受信部
82 第2受信部
90 表示部
100 表示装置
110 映像処理部
120 表示情報受信判定部
130 シーンチェンジ検出部
140 選択部
1000 放送システム
NT1 第1ネットワーク
NT2 第2ネットワーク
MOV1 入力映像
MOV2 出力映像
ATT 注目領域
ZTT ズームアウト領域
α 拡大率
1
Claims (13)
上記入力映像を受信する第1受信部と、
上記入力映像に対応する表示情報を受信する第2受信部と、を備えており、
上記第2受信部は、上記第1受信部とは異なる受信部であり、
上記表示情報は、上記入力映像に同期したメタデータを含み、
上記メタデータは、上記入力映像の注目領域を示す注目情報を含み、
上記映像処理装置は、(i)上記表示情報を用いて上記入力映像を処理する第1モード、および、(ii)上記表示情報を用いずに上記入力映像を処理する第2モード、のいずれかの一方のモードを選択する、映像処理装置。 A video processing device that generates an output video by processing an input video,
a first receiving unit that receives the input video;
a second receiving unit that receives display information corresponding to the input video,
The second receiving unit is a receiving unit different from the first receiving unit,
the display information includes metadata synchronized with the input video;
the metadata includes attention information indicating an attention area of the input video;
The video processing device has one of (i) a first mode in which the display information is used to process the input video, and (ii) a second mode in which the input video is processed without using the display information. A video processing device that selects one mode of
上記第1モードが予め選択されていた場合、
上記映像処理装置は、
上記第2受信部が上記表示情報を受信できない受信不能状態に遷移したことを契機として、αを漸進的に減少させ、
αが1まで減少したことを契機として、上記第2モードを選択する、請求項3に記載の映像処理装置。 Assuming that the enlargement ratio of the output image with respect to the input image is α,
If the first mode has been previously selected,
The video processing device is
Gradually decreasing α when the second receiving unit transitions to a reception disabled state in which the display information cannot be received,
4. The video processing apparatus according to claim 3, wherein the second mode is selected when .alpha. has decreased to 1.
上記第1モードにおいてαが1に減少するまでの所定の時点において、上記受信不能状態が解消されたことを契機として、
αを、上記所定の時点における値から、漸進的に増加させる、請求項4に記載の映像処理装置。 The video processing device is
Triggered by the cancellation of the unreceivable state at a predetermined time until α decreases to 1 in the first mode,
5. The video processing device according to claim 4, wherein α is gradually increased from the value at said predetermined time.
上記映像処理装置は、
上記第2受信部の上記受信不能状態が解消された状態が所定の時間に亘り維持されたことを契機として、上記第1モードを選択し、
上記第1モードにおいて、αを1から漸進的に増加させる、請求項4に記載の映像処理装置。 If the second mode has been previously selected,
The video processing device is
Selecting the first mode when the state in which the unreceivable state of the second receiving unit is resolved is maintained for a predetermined period of time,
5. The image processing apparatus according to claim 4, wherein .alpha. is gradually increased from 1 in the first mode.
上記入力映像を解析することにより、当該入力映像のシーンチェンジの有無を示すシーンチェンジ情報を生成し、
上記第2受信部の通信状態および上記シーンチェンジ情報に基づき、上記第1モードおよび上記第2モードのいずれかの一方のモードを選択する、請求項1から6のいずれか1項に記載の映像処理装置。 The video processing device is
generating scene change information indicating whether or not there is a scene change in the input video by analyzing the input video;
7. The image according to any one of claims 1 to 6, wherein one of the first mode and the second mode is selected based on the communication state of the second receiving section and the scene change information. processing equipment.
上記映像処理装置は、上記第2受信部の通信状態および上記シーンチェンジ情報に基づき、上記第1モードおよび上記第2モードのいずれかの一方のモードを選択する、請求項1から6のいずれか1項に記載の映像処理装置。 The display information further includes scene change information indicating whether or not there is a scene change in the input video,
7. The video processing device according to any one of claims 1 to 6, wherein the video processing device selects one of the first mode and the second mode based on the communication state of the second receiving section and the scene change information. The video processing device according to item 1.
上記映像処理装置は、上記第2受信部が上記表示情報を受信可能な場合において、上記入力映像にシーンチェンジが生じたことを契機として、上記第1モードを選択する、請求項7または8に記載の映像処理装置。 If the second mode has been previously selected,
9. The video processing device according to claim 7 or 8, wherein the video processing device selects the first mode when a scene change occurs in the input video when the second receiving unit is capable of receiving the display information. The video processing device described.
上記映像処理装置は、上記第2受信部が上記表示情報を受信できない受信不能状態にある場合において、上記入力映像にシーンチェンジが生じたことを契機として、上記第2モードを選択する、請求項7に記載の映像処理装置。 If the first mode has been previously selected,
3. The video processing device selects the second mode when a scene change occurs in the input video when the second receiving unit is in a reception disabled state in which the display information cannot be received. 8. The video processing device according to 7.
上記第2受信部は、IP(Internet Protocol)通信ネットワークを介して、上記表示情報を受信する、請求項1から10のいずれか1項に記載の映像処理装置。 The first receiving unit receives a broadcast wave and acquires the input video by decoding the broadcast wave,
11. The video processing device according to any one of claims 1 to 10, wherein said second receiving section receives said display information via an IP (Internet Protocol) communication network.
上記出力映像を表示する表示部と、を備えた、表示装置。 A video processing device according to any one of claims 1 to 11;
and a display unit that displays the output video.
第1受信部によって上記入力映像を受信する第1受信工程と、
上記第1受信部とは異なる第2受信部によって、上記入力映像に対応する表示情報を受信する第2受信工程と、を含んでおり、
上記表示情報は、上記入力映像に同期したメタデータを含み、
上記メタデータは、上記入力映像の注目領域を示す注目情報を含み、
上記映像処理方法は、(i)上記表示情報を用いて上記入力映像を処理する第1モード、および、(ii)上記表示情報を用いずに上記入力映像を処理する第2モード、のいずれかの一方のモードを選択する工程をさらに含んでいる、映像処理方法。 A video processing method for generating an output video by processing an input video,
a first receiving step of receiving the input image by a first receiving unit;
a second receiving step of receiving display information corresponding to the input image by a second receiving unit different from the first receiving unit;
the display information includes metadata synchronized with the input video;
the metadata includes attention information indicating an attention area of the input video;
The image processing method includes (i) a first mode of processing the input image using the display information, or (ii) a second mode of processing the input image without using the display information. , further comprising the step of selecting one mode of .
Priority Applications (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019104433A JP2022116368A (en) | 2019-06-04 | 2019-06-04 | Video processing device, display device, and video processing method |
| PCT/JP2020/016577 WO2020246146A1 (en) | 2019-06-04 | 2020-04-15 | Video processing device, display device, and video processing method |
| CN202080040839.1A CN113924785A (en) | 2019-06-04 | 2020-04-15 | Video processing device, display device, and video processing method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2019104433A JP2022116368A (en) | 2019-06-04 | 2019-06-04 | Video processing device, display device, and video processing method |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2022116368A true JP2022116368A (en) | 2022-08-10 |
Family
ID=73652759
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019104433A Pending JP2022116368A (en) | 2019-06-04 | 2019-06-04 | Video processing device, display device, and video processing method |
Country Status (3)
| Country | Link |
|---|---|
| JP (1) | JP2022116368A (en) |
| CN (1) | CN113924785A (en) |
| WO (1) | WO2020246146A1 (en) |
Family Cites Families (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP5219888B2 (en) * | 2009-03-02 | 2013-06-26 | キヤノン株式会社 | Broadcast receiving apparatus and control method thereof |
| JP6267961B2 (en) * | 2012-08-10 | 2018-01-24 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | Image providing method and transmitting apparatus |
-
2019
- 2019-06-04 JP JP2019104433A patent/JP2022116368A/en active Pending
-
2020
- 2020-04-15 WO PCT/JP2020/016577 patent/WO2020246146A1/en not_active Ceased
- 2020-04-15 CN CN202080040839.1A patent/CN113924785A/en not_active Withdrawn
Also Published As
| Publication number | Publication date |
|---|---|
| CN113924785A (en) | 2022-01-11 |
| WO2020246146A1 (en) | 2020-12-10 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101467178B (en) | Scaling an image based on a motion vector | |
| KR100848597B1 (en) | Display signal control apparatus, and display signal control method | |
| US9204086B2 (en) | Method and apparatus for transmitting and using picture descriptive information in a frame rate conversion processor | |
| KR100860174B1 (en) | Video display device and its operation method | |
| JP2010531105A (en) | Method and apparatus for transition from first display format to second display format | |
| US20120224105A1 (en) | Video display apparatus and video processing method | |
| JP2010148084A (en) | Method and apparatus for processing video | |
| JP4691193B1 (en) | Video display device and video processing method | |
| JP2008236389A (en) | Image processing apparatus, image processing method, image processing program, reproduction information generation apparatus, reproduction information generation method, and reproduction information generation program | |
| KR101603596B1 (en) | Image processing system for multi vision | |
| US8520008B2 (en) | Picture display device | |
| JP2010026021A (en) | Display device and display method | |
| US11741570B2 (en) | Image processing device and image processing method of same | |
| EP2063636B1 (en) | Video processing device and video processing method | |
| US12236608B2 (en) | Judder detection for dynamic frame rate conversion | |
| JP4951487B2 (en) | Video processing apparatus and video display apparatus using the same | |
| JP2022116368A (en) | Video processing device, display device, and video processing method | |
| JP5112528B2 (en) | Video display device and video processing method | |
| JP2009206940A (en) | Interpolation frame generation circuit and frame interpolation apparatus | |
| JP5259867B2 (en) | Video display device and video processing method | |
| JP2005203933A (en) | Video playback apparatus and video playback method | |
| JP2015192278A (en) | Picture processing system and method | |
| JP5026105B2 (en) | Digital video display device | |
| JP2007074439A (en) | Video processing device | |
| JP2010039150A (en) | Image display |