[go: up one dir, main page]

WO2026005571A1 - Image encoding/decoding method, device, and recording medium storing bitstream - Google Patents

Image encoding/decoding method, device, and recording medium storing bitstream

Info

Publication number
WO2026005571A1
WO2026005571A1 PCT/KR2025/095392 KR2025095392W WO2026005571A1 WO 2026005571 A1 WO2026005571 A1 WO 2026005571A1 KR 2025095392 W KR2025095392 W KR 2025095392W WO 2026005571 A1 WO2026005571 A1 WO 2026005571A1
Authority
WO
WIPO (PCT)
Prior art keywords
current
probability
bin
data unit
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
PCT/KR2025/095392
Other languages
French (fr)
Korean (ko)
Inventor
허진
최정아
박승욱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hyundai Motor Co
Kia Corp
Original Assignee
Hyundai Motor Co
Kia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hyundai Motor Co, Kia Corp filed Critical Hyundai Motor Co
Publication of WO2026005571A1 publication Critical patent/WO2026005571A1/en
Pending legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Definitions

  • the present disclosure relates to a video encoding/decoding method, a device, and a recording medium storing a bitstream. Specifically, the present disclosure relates to a video encoding/decoding method, a device, and a recording medium storing a bitstream that apply syntax element probability initialization for bypass coding.
  • syntax elements can be efficiently encoded based on the occurrence probability of symbols through entropy coding.
  • entropy coding a series of syntax elements are binarized into a bin string consisting of bins. Then, for entropy coding of each bin, either context-based adaptive binary arithmetic coding (CABAC) or bypass coding is applied.
  • CABAC context-based adaptive binary arithmetic coding
  • bypass coding is an encoding method that fixes the occurrence probability of a bin to 0.5 and outputs a bitstream identical to the bin string.
  • the present disclosure aims to provide a video encoding/decoding method and device with improved encoding/decoding efficiency.
  • the present disclosure aims to provide a recording medium storing a bitstream generated by an image decoding method or device according to the present disclosure.
  • a video decoding method may be characterized by including, in bypass decoding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.
  • the current data unit may be characterized as being a tile or a slice.
  • the current data unit may be characterized as being a VPDU (Virtual pipeline data unit).
  • VPDU Virtual pipeline data unit
  • the reference data unit may be characterized as being a data unit that was decoded immediately before according to the decoding order of the current data unit.
  • the reference data unit may be characterized in that, when the current data unit is the first data unit of the current picture, it is the last data unit of the reference picture decoded before the current picture.
  • it may further include a step of obtaining information on whether to use empty probability initialization from a high level syntax, and whether the current appearance probability is initialized is determined based on the information on whether to use empty probability initialization.
  • the method may further include a step of obtaining information on a bin probability initialization method from a high level syntax, and a method of obtaining a reference appearance probability for a predetermined value of the bin is determined according to the bin probability initialization method indicated by the information on the bin probability initialization method.
  • the above image decoding method it may be characterized in that it is determined whether the current appearance probability is initialized based on a reference picture referenced by the current picture of the current data unit.
  • the above image decoding method it may be characterized in that whether the current appearance probability is initialized is determined based on a temporal difference between the current picture and the reference picture, and the temporal difference is a POC (Picture Order Counter) of the current picture and the reference picture, and the POC is a number assigned to a picture according to a display order.
  • POC Picture Order Counter
  • the above image decoding method it may be characterized in that whether the current appearance probability is initialized is determined based on the difference in quantization parameters of the current picture and the reference picture.
  • whether the current appearance probability is initialized is determined based on whether the quantization parameter of the reference picture referenced by the current picture is greater than a predetermined threshold value.
  • whether the current appearance probability is initialized is determined based on whether the GOP (Group of Picture) including the current picture of the current data unit is an open GOP or a closed GOP.
  • a video encoding method may be characterized by including, in bypass coding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.
  • a non-transitory computer-readable recording medium can store a bitstream generated by an image encoding method according to various embodiments of the present disclosure.
  • a bitstream transmission method includes a step of transmitting the bitstream, and can transmit a bitstream generated by an image encoding method according to various embodiments of the present disclosure.
  • a video encoding/decoding method and device with improved encoding/decoding efficiency can be provided.
  • a method for initializing syntax element probabilities for bypass coding can be provided.
  • the efficiency of entropy coding can be improved by bypass coding using adaptive probability.
  • the efficiency of entropy coding can be improved by initializing bypass coding for each specific data unit.
  • FIG. 1 is a block diagram showing a configuration according to one embodiment of an encoding device to which the present disclosure is applied.
  • FIG. 2 is a block diagram showing a configuration according to one embodiment of a decryption device to which the present disclosure is applied.
  • FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.
  • Figure 4 illustrates the structure of a context-based adaptive binary arithmetic coding.
  • FIG. 5 is a diagram illustrating a method for performing probability initialization of bins for bypass coding when one picture is divided into multiple slice or tile structures.
  • Figure 6 describes a method for setting a probability initialization value for bypass coding when encoding and decoding are performed based on a VPDU (Virtual pipeline data unit).
  • VPDU Virtual pipeline data unit
  • Figure 7 shows a reference picture structure for explaining the probability initialization of bins according to the reference picture structure.
  • FIGS. 8 and 9 illustrate an example of inter-screen prediction of a current block to explain a method of setting a probability initialization value based on reference block information.
  • FIG. 10 is a flowchart illustrating an image decoding method according to an embodiment of the present disclosure.
  • FIG. 11 is a drawing exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.
  • a video decoding method may be characterized by including, in bypass decoding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.
  • first and second may be used herein to describe various components, these components should not be limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present disclosure, a first component may be referred to as a "second component,” and similarly, a second component may also be referred to as a "first component.”
  • the term “and/or” includes a combination of multiple related items described herein or any of multiple related items described herein.
  • each component shown in the embodiments of the present disclosure are independently depicted to represent different characteristic functions, and do not imply that each component is composed of separate hardware or a single software component. That is, each component is listed and included as a separate component for convenience of explanation, and at least two components among each component may be combined to form a single component, or a single component may be divided into multiple components to perform a function, and such integrated and separate embodiments of each component are also included in the scope of the present disclosure as long as they do not deviate from the essence of the present disclosure.
  • the term "at least one” may mean one of a number greater than or equal to 1, such as 1, 2, 3, and 4.
  • the term "a plurality of” may mean one of a number greater than or equal to 2, such as 2, 3, and 4.
  • video may mean a single picture constituting a video, or may refer to the video itself.
  • encoding and/or decoding of a video may mean “encoding and/or decoding of a video,” or may mean “encoding and/or decoding of one of the videos constituting the video.”
  • the target image may be an encoding target image, which is the target of encoding, and/or a decoding target image, which is the target of decoding.
  • the target image may be an input image input to an encoding device, or an input image input to a decoding device.
  • the target image may have the same meaning as the current image.
  • encoder and image encoding device may be used interchangeably and have the same meaning.
  • decoder and image decoding device may be used interchangeably and interchangeably.
  • image may be used with the same meaning and may be used interchangeably.
  • target block may refer to an encoding target block, which is the target of encoding, and/or a decoding target block, which is the target of decoding.
  • target block may refer to a current block, which is the target of current encoding and/or decoding.
  • current block may be used interchangeably and have the same meaning.
  • a coding tree unit may be composed of one luma component (Y) coding tree block (CTB) and two chroma component (Cb, Cr) coding tree blocks associated with it.
  • sample may represent a basic unit that constitutes a block.
  • FIG. 1 is a block diagram showing a configuration according to one embodiment of an encoding device to which the present disclosure is applied.
  • the encoding device (100) may be an encoder, a video encoding device, or an image encoding device.
  • a video may include one or more images.
  • the encoding device (100) may sequentially encode one or more images.
  • the encoding device (100) may include an image segmentation unit (110), an intra prediction unit (120), a motion prediction unit (121), a motion compensation unit (122), a switch (115), a subtractor (113), a transformation unit (130), a quantization unit (140), an entropy encoding unit (150), an inverse quantization unit (160), an inverse transformation unit (170), an adder (117), a filter unit (180), and a reference picture buffer (190).
  • the encoding device (100) can generate a bitstream including encoded information through encoding an input image and output the generated bitstream.
  • the generated bitstream can be stored in a computer-readable recording medium or can be streamed via a wired/wireless transmission medium.
  • the video segmentation unit (110) can segment the input video into various forms to increase the efficiency of video encoding/decoding. That is, the input video is composed of multiple pictures, and one picture can be hierarchically segmented and processed for compression efficiency, parallel processing, etc. For example, one picture can be segmented into one or more tiles or slices, which can then be segmented into multiple Coding Tree Units (CTUs). Alternatively, one picture can first be segmented into multiple sub-pictures, which are defined as groups of rectangular slices, and each sub-picture can then be segmented into the tiles/slices. Here, the sub-pictures can be utilized to support the function of partially independently encoding/decoding and transmitting the picture.
  • CTUs Coding Tree Unit
  • a brick can be utilized as the basic unit of intra-picture parallel processing.
  • one CTU can be recursively split into a quadtree (QT), and the terminal node of the split can be defined as a coding unit (CU).
  • the CU can be split into a prediction unit (PU) and a transformation unit (TU), and prediction and splitting can be performed.
  • the CU can be utilized as a prediction unit and/or a transformation unit itself.
  • each CTU can be recursively split into a multi-type tree (MTT) as well as a quadtree (QT).
  • MTT multi-type tree
  • QT quadtree
  • Splitting of a CTU into a multi-type tree can start from the terminal node of a QT, and the MTT can be composed of a binary tree (BT) and a triple tree (TT).
  • BT binary tree
  • TT triple tree
  • the MTT structure can be divided into vertical binary split mode (SPLIT_BT_VER), horizontal binary split mode (SPLIT_BT_HOR), vertical ternary split mode (SPLIT_TT_VER), and horizontal ternary split mode (SPLIT_TT_HOR).
  • the minimum block size (MinQTSize) of the quad tree of the luma block during splitting can be set to 16x16
  • the maximum block size (MaxBtSize) of the binary tree can be set to 128x128, and the maximum block size (MaxTtSize) of the triple tree can be set to 64x64.
  • the minimum block size (MinBtSize) of the binary tree and the minimum block size (MinTtSize) of the triple tree can be set to 4x4
  • the maximum depth (MaxMttDepth) of the multi-type tree can be set to 4.
  • a dual tree that uses different CTU split structures for luma and chrominance components can be applied.
  • the luminance and chrominance CTBs (Coding Tree Blocks) within the CTU can be split into a single tree that shares the coding tree structure.
  • the encoding device (100) may perform encoding on the input image in intra mode and/or inter mode.
  • the encoding device (100) may perform encoding on the input image in a third mode (e.g., IBC mode, Palette mode, etc.) other than the intra mode and inter mode.
  • a third mode e.g., IBC mode, Palette mode, etc.
  • the third mode may be classified as intra mode or inter mode for convenience of explanation. In the present disclosure, the third mode will be classified and described separately only when a specific description is required.
  • the switch (115) can be switched to intra, and when the inter mode is used as the prediction mode, the switch (115) can be switched to inter.
  • the intra mode can mean an intra-screen prediction mode
  • the inter mode can mean an inter-screen prediction mode.
  • the encoding device (100) can generate a prediction block for an input block of an input image.
  • the encoding device (100) can encode a residual block using a residual of the input block and the prediction block.
  • the input image can be referred to as a current image that is currently a target of encoding.
  • the input block can be referred to as a current block that is currently a target of encoding or an encoding target block.
  • the intra prediction unit (120) can use samples of blocks already encoded/decoded around the current block as reference samples.
  • the intra prediction unit (120) can perform spatial prediction on the current block using the reference samples, and can generate prediction samples for the input block through spatial prediction.
  • intra prediction can mean prediction within the screen.
  • non-directional prediction modes such as DC mode and Planar mode, as well as directional prediction modes (e.g., 65 directions) can be applied.
  • the intra prediction method can be expressed as an intra prediction mode or an intra-screen prediction mode.
  • the motion prediction unit (121) can search for an area that best matches the input block from the reference image during the motion prediction process and derive a motion vector using the searched area. At this time, the area can be used as a search area.
  • the reference image can be stored in the reference picture buffer (190).
  • it when encoding/decoding for the reference image is processed, it can be stored in the reference picture buffer (190).
  • the motion compensation unit (122) can generate a prediction block for the current block by performing motion compensation using a motion vector.
  • inter prediction may mean inter-screen prediction or motion compensation.
  • the above motion prediction unit (121) and motion compensation unit (122) can generate a prediction block by applying an interpolation filter to a portion of an area within a reference image when the value of the motion vector does not have an integer value.
  • the AFFINE mode of sub-PU based prediction the SbTMVP (Subblock-based Temporal Motion Vector Prediction) mode, and the MMVD (Merge with MVD) mode and the GPM (Geometric Partitioning Mode) mode of PU based prediction can be applied.
  • the SbTMVP Subblock-based Temporal Motion Vector Prediction
  • MMVD Merge with MVD
  • GPM Gateometric Partitioning Mode
  • the HMVP History based MVP
  • the PAMVP Positionwise Average MVP
  • the CIIP Combined Intra/Inter Prediction
  • the AMVR Adaptive Motion Vector Resolution
  • the BDOF Bi-Directional Optical-Flow
  • the BCW Bi-predictive with CU Weights
  • the LIC Lical Illumination Compensation
  • the TM Tempolate Matching
  • the OBMC Overlapped Block Motion Compensation
  • AFFINE mode is a technology that is used in both AMVP and MERGE modes and also has high encoding efficiency.
  • MC Motion Compensation
  • a 4-parameter affine motion model using two control point motion vectors (CPMV) and a 6-parameter affine motion model using three control point motion vectors can be applied to inter prediction.
  • CPMV is a vector representing the affine motion model of one of the upper left, upper right, and lower left of the current block.
  • the subtractor (113) can generate a residual block using the difference between the input block and the predicted block.
  • the residual block may also be referred to as a residual signal.
  • the residual signal may refer to the difference between the original signal and the predicted signal.
  • the residual signal may be a signal generated by transforming, quantizing, or transforming and quantizing the difference between the original signal and the predicted signal.
  • the residual block may be a residual signal in block units.
  • the transform unit (130) can perform a transform on the residual block to generate a transform coefficient and output the generated transform coefficient.
  • the transform coefficient may be a coefficient value generated by performing a transform on the residual block.
  • the transform unit (130) may also skip the transform on the residual block.
  • Quantized levels can be generated by applying quantization to transform coefficients or residual signals.
  • quantized levels may also be referred to as transform coefficients.
  • a 4x4 luminance residual block generated through intra prediction can be transformed using a basis vector based on DST (Discrete Sine Transform), and the remaining residual blocks can be transformed using a basis vector based on DCT (Discrete Cosine Transform).
  • DST Discrete Sine Transform
  • DCT Discrete Cosine Transform
  • RQT Residual Quad Tree
  • the transform block is divided into a quad tree shape for one block, and after performing transformation and quantization on each transform block divided through RQT, a coded block flag (cbf) can be transmitted to increase encoding efficiency when all coefficients become 0.
  • MTS Multiple Transform Selection
  • SBT Sub-block Transform
  • a Sub-block Transform (SBT) technology can perform a function similar to TU division.
  • SBT is applied only to inter-screen prediction blocks, and unlike RQT, it can divide the current block into 1 ⁇ 2 or 1 ⁇ 4 blocks vertically or horizontally, and then perform transformation on only one of the blocks. For example, in a vertically divided block, the transformation can be performed on the leftmost or rightmost block, and in a horizontally divided block, the transformation can be performed on the topmost or bottommost block.
  • LFNST Low Frequency Non-Separable Transform
  • a secondary transform technique that further transforms the residual signal converted to the frequency domain through DCT or DST
  • LFNST additionally performs a transform on the low-frequency region of 4x4 or 8x8 in the upper left, which allows the residual coefficients to be concentrated in the upper left.
  • the quantization unit (140) can generate a quantized level by quantizing a transform coefficient or residual signal according to a quantization parameter (QP), and can output the generated quantized level. At this time, the quantization unit (140) can quantize the transform coefficient using a quantization matrix.
  • QP quantization parameter
  • a quantizer with QP values of 0 to 51 can be used.
  • a QP of 0 to 63 can be used.
  • a Dependent Quantization (DQ) method that uses two quantizers instead of a single quantizer can be applied. DQ performs quantization using two quantizers (e.g., Q0 and Q1), but even without signaling information about the use of a specific quantizer, the quantizer to be used for the next transform coefficient can be selected based on the current state through a state transition model.
  • the entropy encoding unit (150) can generate a bitstream by performing entropy encoding according to a probability distribution on values produced by the quantization unit (140) or coding parameter values produced during the encoding process, and can output the bitstream.
  • the entropy encoding unit (150) can perform entropy encoding on information about image samples and information for decoding the image.
  • the information for decoding the image can include syntax elements, etc.
  • the entropy encoding unit (150) can use an encoding method such as exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), or Context-Adaptive Binary Arithmetic Coding (CABAC) for entropy encoding.
  • CAVLC Context-Adaptive Variable Length Coding
  • CABAC Context-Adaptive Binary Arithmetic Coding
  • the entropy encoding unit (150) can perform entropy encoding using a Variable Length Coding/Code (VLC) table.
  • VLC Variable Length Coding/Code
  • the entropy encoding unit (150) may perform arithmetic encoding using the binarization method, probability model, and context model derived from the binarization method of the target symbol and the probability model of the target symbol/bin.
  • the table probability update method when applying CABAC, can be changed to a simple formula-based table update method to reduce the size of the probability table stored in the decryption device. Furthermore, two different probability models can be used to obtain more accurate symbol probability values.
  • the entropy encoding unit (150) can change a two-dimensional block form coefficient into a one-dimensional vector form through a transform coefficient scanning method to encode a transform coefficient level (quantized level).
  • Coding parameters may include not only information (flags, indexes, etc.) encoded in an encoding device (100) and signaled to a decoding device (200), such as syntax elements, but also information derived during an encoding process or a decoding process, and may mean information necessary when encoding or decoding an image.
  • signaling a flag or index may mean that the encoder entropy encodes the flag or index and includes it in the bitstream, and that the decoder entropy decodes the flag or index from the bitstream.
  • the encoded current image can be used as a reference image for other images to be processed later. Accordingly, the encoding device (100) can reconstruct or decode the encoded current image again and store the reconstructed or decoded image as a reference image in the reference picture buffer (190).
  • the quantized level can be dequantized in the dequantization unit (160) and inversely transformed in the inverse transformation unit (170).
  • the dequantized and/or inversely transformed coefficients can be combined with a prediction block through an adder (117), and a reconstructed block can be generated by combining the dequantized and/or inversely transformed coefficients and the prediction block.
  • the dequantized and/or inversely transformed coefficients refer to coefficients on which at least one of dequantization and inverse transformation has been performed, and may refer to a reconstructed residual block.
  • the dequantization unit (160) and the inverse transformation unit (170) can be performed in the reverse process of the quantization unit (140) and the transformation unit (130).
  • the restoration block may pass through a filter unit (180).
  • the filter unit (180) may apply a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), a bilateral filter (BIF), a Luma Mapping with Chroma Scaling (LMCS), etc. as a filtering technique, in whole or in part, to the restoration sample, restoration block, or restoration image.
  • the filter unit (180) may also be referred to as an in-loop filter. In this case, the in-loop filter is also used as a name excluding LMCS.
  • a deblocking filter can remove block distortion that occurs at the boundaries between blocks. Whether to apply a deblocking filter to the current block can be determined based on the samples contained in several columns or rows within the block. When applying a deblocking filter to a block, different filters can be applied depending on the required deblocking filtering strength.
  • Sample adaptive offset can be used to compensate for encoding errors by adding an appropriate offset value to sample values.
  • Sample adaptive offset can compensate for the offset from the original image on a sample-by-sample basis for deblocked images. This can be done by dividing the samples contained in the image into a fixed number of regions, determining the regions to be offset, and applying the offset to those regions. Alternatively, the offset can be applied by considering the edge information of each sample.
  • Bilateral filter can also compensate for the offset from the original image on a sample-by-sample basis for the deblocked image.
  • An adaptive loop filter can perform filtering based on a comparison between a reconstructed image and the original image. By dividing the samples contained in the image into predetermined groups and determining the filter to be applied to each group, filtering can be performed differentially for each group. Information regarding whether to apply an adaptive loop filter can be signaled for each coding unit (CU), and the shape and filter coefficients of the adaptive loop filter applied to each block can vary.
  • CU coding unit
  • LMCS Luma Mapping with Chroma Scaling
  • LM luma mapping
  • CS chroma scaling
  • LMCS can be utilized as an HDR correction technique that reflects the characteristics of HDR (High Dynamic Range) images.
  • the restored block or restored image that has passed through the filter unit (180) may be stored in the reference picture buffer (190).
  • the restored block that has passed through the filter unit (180) may be a part of the reference image.
  • the reference image may be a restored image composed of restored blocks that have passed through the filter unit (180).
  • the stored reference image may be used for inter-screen prediction or motion compensation thereafter.
  • FIG. 2 is a block diagram showing a configuration according to one embodiment of a decryption device to which the present disclosure is applied.
  • the decoding device (200) may be a decoder, a video decoding device, or an image decoding device.
  • the decoding device (200) may include an entropy decoding unit (210), an inverse quantization unit (220), an inverse transformation unit (230), an intra prediction unit (240), a motion compensation unit (250), an adder (201), a switch (203), a filter unit (260), and a reference picture buffer (270).
  • an entropy decoding unit (210) may include an entropy decoding unit (210), an inverse quantization unit (220), an inverse transformation unit (230), an intra prediction unit (240), a motion compensation unit (250), an adder (201), a switch (203), a filter unit (260), and a reference picture buffer (270).
  • the decoding device (200) can receive a bitstream output from the encoding device (100).
  • the decoding device (200) can receive a bitstream stored in a computer-readable recording medium, or a bitstream streamed through a wired/wireless transmission medium.
  • the decoding device (200) can perform decoding on the bitstream in intra mode or inter mode.
  • the decoding device (200) can generate a restored image or a decoded image through decoding, and can output the restored image or the decoded image.
  • the switch (203) can be switched to intra. If the prediction mode used for decryption is inter mode, the switch (203) can be switched to inter.
  • the decoding device (200) can decode the input bitstream to obtain a reconstructed residual block and generate a prediction block. Once the reconstructed residual block and the prediction block are obtained, the decoding device (200) can generate a reconstructed block to be decoded by adding the reconstructed residual block and the prediction block.
  • the block to be decoded may be referred to as a current block.
  • the entropy decoding unit (210) can generate symbols by performing entropy decoding according to a probability distribution for the bitstream.
  • the generated symbols may include symbols in the form of quantized levels.
  • the entropy decoding method may be the reverse process of the entropy encoding method described above.
  • the entropy decoding unit (210) can change a one-dimensional vector-shaped coefficient into a two-dimensional block-shaped coefficient through a transform coefficient scanning method to decode a transform coefficient level (quantized level).
  • the quantized level can be inversely quantized in the inverse quantization unit (220) and inversely transformed in the inverse transformation unit (230).
  • the quantized level can be generated as a restored residual block as a result of performing inverse quantization and/or inverse transformation.
  • the inverse quantization unit (220) can apply a quantization matrix to the quantized level.
  • the inverse quantization unit (220) and inverse transformation unit (230) applied to the decoding device can apply the same technology as the inverse quantization unit (160) and inverse transformation unit (170) applied to the encoding device described above.
  • the intra prediction unit (240) can generate a predicted block by performing spatial prediction on the current block using sample values of already decoded blocks surrounding the block to be decoded.
  • the intra prediction unit (240) applied to the decoding device can apply the same technology as the intra prediction unit (120) applied to the encoding device described above.
  • the motion compensation unit (250) can generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference picture buffer (270) on the current block.
  • the motion compensation unit (250) can generate a prediction block by applying an interpolation filter to a portion of the reference image when the value of the motion vector does not have an integer value.
  • the motion compensation unit (250) applied to the decoding device can apply the same technology as the motion compensation unit (122) applied to the encoding device described above.
  • the adder (201) can add the restored residual block and the predicted block to generate a restored block.
  • the filter unit (260) can apply at least one of an Inverse-LMCS, a deblocking filter, a sample adaptive offset, and an adaptive loop filter to the restored block or restored image.
  • the filter unit (260) applied to the decoding device can apply the same filtering technology as that applied to the filter unit (180) applied to the encoding device described above.
  • the filter unit (260) can output a restored image.
  • the restored block or restored image can be stored in the reference picture buffer (270) and used for inter prediction.
  • the restored block that has passed through the filter unit (260) can be a part of the reference image.
  • the reference image can be a restored image composed of restored blocks that have passed through the filter unit (260).
  • the stored reference image can be used for inter-screen prediction or motion compensation thereafter.
  • FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.
  • a video coding system may include an encoding device (10) and a decoding device (20).
  • the encoding device (10) may transmit encoded video and/or image information or data to the decoding device (20) in the form of a file or streaming through a digital storage medium or a network.
  • An encoding device (10) may include a video source generation unit (11), an encoding unit (12), and a transmission unit (13).
  • a decoding device (20) may include a reception unit (21), a decoding unit (22), and a rendering unit (23).
  • the encoding unit (12) may be referred to as a video/image encoding unit, and the decoding unit (22) may be referred to as a video/image decoding unit.
  • the transmission unit (13) may be included in the encoding unit (12).
  • the reception unit (21) may be included in the decoding unit (22).
  • the rendering unit (23) may include a display unit, and the display unit may be configured as a separate device or an external component.
  • the video source generation unit (11) can obtain video/images through a process of capturing, synthesizing, or generating video/images.
  • the video source generation unit (11) can include a video/image capture device and/or a video/image generation device.
  • the video/image capture device can include, for example, one or more cameras, a video/image archive including previously captured video/images, etc.
  • the video/image generation device can include, for example, a computer, a tablet, a smartphone, etc., and can (electronically) generate video/images.
  • a virtual video/image can be generated through a computer, etc., in which case the video/image capture process can be replaced with a process of generating related data.
  • the encoding unit (12) can encode the input video/image.
  • the encoding unit (12) can perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency.
  • the encoding unit (12) can output encoded data (encoded video/image information) in the form of a bitstream.
  • the detailed configuration of the encoding unit (12) can also be configured in the same manner as the encoding device (100) of FIG. 1 described above.
  • the transmission unit (13) can transmit encoded video/image information or data output in the form of a bitstream to the reception unit (21) of the decoding device (20) via a digital storage medium or a network in the form of a file or streaming.
  • the digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, etc.
  • the transmission unit (13) can include an element for generating a media file through a predetermined file format and can include an element for transmission via a broadcasting/communication network.
  • the reception unit (21) can extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit (22).
  • the decoding unit (22) can decode video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding unit (12).
  • the detailed configuration of the decoding unit (22) can also be configured in the same manner as the decoding device (200) of FIG. 2 described above.
  • the rendering unit (23) can render the decrypted video/image.
  • the rendered video/image can be displayed through the display unit.
  • Figure 4 illustrates the structure of a context-based adaptive binary arithmetic coding (400).
  • a context-based adaptive binary arithmetic encoder (400) is composed of syntax element binarization (402), a regular coding mode (404) based on a context model and probability update, and a bypass coding mode (406).
  • syntax element binarization (402) step syntax elements generated during an image encoding process are converted into a bin string, which is an array of bins consisting of only 0s and 1s, through a binarization process. Then, a bitstream is generated by applying the regular coding mode (404) or the bypass coding mode (406) to each bin of the bin string.
  • the regular coding mode (404) the bin string is encoded according to the probability of the bin according to context modeling.
  • the bypass coding mode (406) the binarized bin string is output as a bitstream. That is, bypass coding is a simple coding method applied to specific syntax elements to reduce the complexity of encoding and decoding.
  • Bypass coding is performed without a context model.
  • the probability of the current bin can be fixed to 0.5 (the probability of 0 and the probability of 1 are each set to 0.5).
  • the bin string can be output as a bitstream.
  • Bypass coding can be applied when it is difficult to improve encoding efficiency or when low complexity is required even when context-based adaptive binary arithmetic coding is applied.
  • bypass coding applies a fixed probability (0.5) regardless of the data unit, encoding efficiency may be limited.
  • the efficiency of bypass coding can be improved.
  • the efficiency of bypass coding is likely to be improved.
  • the complexity of the encoder/decoder for ultra-low latency video can be reduced.
  • the bypass coding engine can be applied to all syntax elements.
  • information on whether to use empty probability initialization and information on the empty probability initialization method can be determined for at least one syntax element.
  • a method for determining whether to initialize or change the probability of a bin to which bypass coding is applied to a probability other than a fixed probability is described.
  • a method for determining the probability of a bin used for bypass coding for current data is proposed.
  • the value of a bin is 0 or 1
  • the probability of a bin represents the probability of occurrence of the bin having a predetermined value (0 or 1).
  • initializing the probability of a bin means changing the probability of the bin to a probability other than a fixed default probability, and for a data unit to which the bin probability initialization is applied, the initialized (or changed) probability is applied to bypass coding of the bin.
  • the current occurrence probability represents the probability of occurrence of a predetermined value of a bin applied to the current data unit
  • the reference occurrence probability represents the probability of occurrence of a predetermined value of a bin applied to a reference (previous) data unit.
  • information indicating whether empty probability initialization is used for bypass coding may be parsed.
  • it may be determined whether empty probability initialization is applied to bypass coding.
  • the empty probability initialization method used for bypass coding can be determined based on the empty probability initialization method information.
  • the information on whether to use empty probability initialization and the information on how to initialize empty probability may be implemented as separate syntax elements.
  • the information on whether to use empty probability initialization and the information on how to initialize empty probability may be implemented as a single syntax element.
  • a syntax element that implements information on whether to use empty probability initialization and information on how to initialize empty probability can be signaled in at least one high-level syntax.
  • the syntax element can be transmitted in the form of a flag or an index in at least one of a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), an adaptation parameter set (APS), a picture header (PH), and a slice header (SH).
  • VPS video parameter set
  • SPS sequence parameter set
  • PPS picture parameter set
  • APS adaptation parameter set
  • PH picture header
  • SH slice header
  • the information on whether to use bin probability initialization and the information on the bin probability initialization method may be applied to one or more bins among bins to which bypass coding is applied, in which probability initialization is allowed.
  • one or more syntax elements corresponding to the information on whether to use bin probability initialization may be defined for each of the bins.
  • one or more syntax elements corresponding to the information on the bin probability initialization method may be defined for each of the bins.
  • the syntax elements may be applied to one or more bins to which probability initialization is allowed, according to an embodiment.
  • information on whether to use empty probability initialization and information on the empty probability initialization method may be transmitted on a picture-by-picture basis. If a current picture or a reference picture is divided into specific parallelization units (e.g., slice units, tile units, or VPDU (virtual pipeline data unit) units), information on whether to use empty probability initialization and information on the empty probability initialization method may be transmitted for each parallelization unit. In addition, information on whether to use empty probability initialization and information on the empty probability initialization method may be applied on a video sequence basis.
  • specific parallelization units e.g., slice units, tile units, or VPDU (virtual pipeline data unit) units
  • bypass coding may be performed on two or more bins among the bins constituting a single syntax element.
  • whether to use bin probability initialization and the probability initialization method may be determined collectively for the bins of the syntax element to which bypass coding is applied.
  • the probability initialization values for each bin may be determined independently.
  • bin probability initialization and the probability initialization method can be determined for each bin of a syntax element to which bypass coding is applied.
  • the probability initialization value can be determined independently for each bin of a syntax element to which bypass coding is applied.
  • FIG. 5 is a diagram illustrating a method for performing probability initialization of bins for bypass coding when one picture is divided into multiple slice or tile structures.
  • the current picture (500) and the previous picture (510) of FIG. 5 are illustrated as being divided into, for example, nine data units (slices or tiles). However, depending on the embodiment, the picture to which the probability initialization decision method for bypass coding of bins is applied may be divided into a number of data units other than nine.
  • a small square block within a picture represents a coding tree unit (CTU) block.
  • a thick straight line within a picture represents the boundary of a slice or tile.
  • a probability initialization value (current occurrence probability of a specific value) for bypass coding of a bin of a syntax element of a current slice or current tile may be set based on the reference occurrence probability of a specific value of a bin of a syntax element of a previous slice unit or a previous tile unit.
  • bypass coding is applied to bin A of syntax element A and the specific value is 0.
  • the reference appearance probability that bin A will have a value of 0 in the first slice (slice1) (502) is determined. Then, based on the reference appearance probability for bin A in the first slice (slice1) (502), the initial probability value (current appearance probability) for bin A in the second slice (slice2) (504) can be determined.
  • the reference appearance probability that the blank A in the first tile (tile1) (502) will have a value of 0 is determined. Then, based on the reference appearance probability for the blank A in the first tile (tile1) (502), the initial probability value (current appearance probability) for the blank A in the second tile (tile2) (504) can be determined.
  • the probability initialization value (current appearance probability) for bypass coding of the bin of the first slice or the first tile of the current picture can be determined based on the reference appearance probability of the bin of the last slice or the last tile of the previous picture.
  • the reference appearance probability that bin A will have a value of 0 in the last slice (slice9) (512) of the previous picture (510) is determined. Then, according to the reference appearance probability of bin A, the initial probability value (current appearance probability) applied to bin A of the first slice (slice1) (502) of the current picture (500) can be determined.
  • the reference appearance probability that the blank A will have a value of 0 in the last tile (tile9) (512) of the previous picture (510) is determined. Then, according to the reference appearance probability of the blank A, the initial probability value (current appearance probability) applied to the blank A of the first tile (tile1) (502) of the current picture (500) can be determined.
  • one previous data unit was referenced to determine the reference appearance probability.
  • two or more previous data units may be referenced to determine the reference appearance probability.
  • the reference appearance probability may be determined from the first tile (tile1) (502) and the second tile (tile2) (504) to determine the probability initial value for the bin A of the third tile (tile3) (506). The same applies when the data unit is a slice.
  • the reference occurrence probability when two or more previous data units are referenced, the reference occurrence probability may be determined by averaging the occurrence probabilities of predetermined values of the bins of each previous data unit.
  • the reference occurrence probability may be determined based on the weight of each previous data unit. For example, a high weight may be assigned to a previous data unit that is close to the current data unit in encoding order, and a low weight may be assigned to a previous data unit that is far from the current data unit in encoding order.
  • the reference occurrence probability may be determined by weighting and averaging the occurrence probabilities of a predetermined value in the bins of each previous data unit based on the weights.
  • a higher weight may be assigned to the occurrence probability of a predetermined value in bin A of the second tile (tile2) (504) than to the occurrence probability of a predetermined value in bin A of the first tile (tile1) (502).
  • the data unit is a slice.
  • the reference occurrence probability of the previous data unit may be determined based on the reference occurrence probability referenced for bypass coding of the bin of the previous data unit and the actual occurrence probability of the bin in the previous data unit. For example, when only the second tile (tile2) (504) is referenced to determine the probability initial value for bin A of the third tile (tile3) (506), the reference occurrence probability to be referenced by the third tile (tile3) (506) may be determined based on the reference occurrence probability referenced for determining the probability initial value of the second tile (tile2) (504) and the actual occurrence probability of the predetermined value of the bin in the second tile (tile2) (504). The same applies when the data unit is a slice.
  • the actual occurrence probability of previous data units may be accumulated to determine the probability initial value.
  • the probability initial value may be initialized on a picture-by-picture basis, a specific slice basis, or a specific tile basis.
  • the probability initialization value for bypass coding of a bin of a first slice or a first tile of a picture may be determined based on the actual occurrence probability of that bin within the entire or a portion of the previous picture.
  • the occurrence probability for a 0 value of a bin parsed in a previous decryption process can be calculated according to mathematical expression 1.
  • total_count bin_A represents the total number of bins A parsed for a given range of data units decoded before the current data unit.
  • occurrence_count[0] bin_A represents the number of bins A having a value of 0 parsed for a given range of data units decoded before the current data unit.
  • probability[0] bin_A represents the probability of occurrence of bin A having a value of 0 in a given range of data units decoded before the current data unit.
  • probability[1] bin_A represents the probability of occurrence of bin A having a value of 1 in a given range of data units decoded before the current data unit.
  • the above probability[0] bin_A and probability[1] bin_A can be determined as the initial probability values for 0 and 1 of bin A of the current picture.
  • the initial probability values for 0 and 1 of bin A for performing bypass coding of the current picture can be determined by transforming probability[0] bin_A and probability[1] bin_A .
  • Bypass coding for bin A can be performed based on the initial probability values for 0 and 1 of bin A of the current data unit determined based on probability[0] bin_A and probability[1] bin_A .
  • the data unit includes a picture, a slice, a tile, etc.
  • bin_A means a bin of any syntax element for which bypass coding is performed.
  • Figure 6 describes a method for setting a probability initialization value for bypass coding when encoding and decoding are performed based on a VPDU (Virtual pipeline data unit).
  • VPDU Virtual pipeline data unit
  • VPDU is a parallel data processing unit that was introduced as the size of the coding tree unit (CTU) gradually increased.
  • CTU coding tree unit
  • the small square block in Fig. 6 represents a VPDU
  • a square block (a block shaped like a dotted line) containing 2 x 2 VPDUs represents one coding tree unit block.
  • bypass coding is applied to empty A of syntax element A and that a specific value is 0.
  • the probability initialization value for bypass coding of the corresponding syntax element of the current VPDU may be set based on the probability of the corresponding syntax element of the corresponding VPDU of the previous coding tree unit block.
  • the probability initialization value of a specific syntax element of the first VPDU (612) of the second coding tree unit block (610) may be set based on the probability of the corresponding specific syntax element of the first VPDU (602) of the first coding tree unit block (600).
  • the probability initialization values of the specific syntax elements of the VPDUs (614, 616, 618) of the second coding tree unit block (610) may be set based on the probability of the specific syntax elements of the VPDUs (614, 616, 618) of the first coding tree unit block (600), respectively.
  • the probability initialization value of a specific syntax element of a VPDU at an arbitrary position of the current coding tree unit block can be determined by accumulating the probability of a specific syntax element of VPDUs at corresponding arbitrary positions of at least one coding tree unit block that was previously coded.
  • mathematical expression 2 is an expression for setting the probability initialization value of the empty A of the syntax element A of the third VPDU (3rd VPDU) of the Nth coding tree unit block (Nth CTU).
  • the probability initialization value uses M coding tree unit blocks that were previously coded.
  • N and M are positive integers such that N > M.
  • mathematical expression 2 the syntax element of the third VPDU of the M coding tree unit blocks encoded or decoded before the Nth coding tree unit block is used.
  • mathematical expression 2 is explained based on the third VPDU as an example, it can be applied to other VPDUs as well.
  • the same probability initialization value may be applied to all VPDUs within a coding tree unit block.
  • the probability initialization value may be determined from one or more previously encoded or decoded coding tree unit blocks.
  • a probability initialization value for bypass coding of a specific bin can be set based on reference picture structure information.
  • Figure 7 shows a reference picture structure for explaining the probability initialization of bins according to the reference picture structure.
  • a series of pictures arranged in chronological order can be encoded and decoded according to a separate encoding order different from the chronological order.
  • Fig. 7 illustrates a reference picture structure according to one embodiment of a video encoding scenario corresponding to random access.
  • one or more temporal layers can be configured according to the flow of time. And by assigning different quantization parameter (QP) values to each temporal layer, compression performance can be improved. Therefore, a method for performing probability initialization of bins is described, considering that different quantization parameter values are applied to the time order of each picture or to each temporal layer.
  • QP quantization parameter
  • the numbers displayed on the left side of the pictures (700 to 780) in FIG. 7 indicate the order of the pictures.
  • the numbers above indicate the encoding order, and the numbers displayed in the "" below indicate the POC (Picture Order Counter), which indicates the display order.
  • the arrows between the pictures in FIG. 7 indicate the pictures referenced by a given picture.
  • Picture (700) is an IDR or Intra picture, and is encoded and decoded without reference to other pictures. Picture (710) is encoded and decoded only with reference to picture (700). Picture (720) is encoded and decoded with reference to picture (700) and picture (710). Reference pictures referenced by the remaining pictures can also be identified according to the arrows.
  • the pictures in Fig. 7 can be divided into temporal layers.
  • a temporal layer refers to a set of pictures grouped by the same temporal ID. As the level of the temporal layer increases, the frame rate doubles stepwise for each level. For example, pictures (700, 710) correspond to temporal layer level 0. And picture (720) corresponds to temporal layer level 1. And pictures (730, 740) correspond to temporal layer level 2. And pictures (750, 760, 770, 780) correspond to temporal layer level 3.
  • the probability initialization of the bins for bypass coding may be performed based on the temporal difference between the current picture and a reference picture. For example, if the temporal distance difference between the current picture and a given reference picture A is less than or equal to S, the probability initialization value of bin A in the current picture may be calculated, where S is an arbitrary positive integer.
  • the above embodiment is described assuming that the S value is 2.
  • the reference pictures restored before the current picture are a picture (700) whose temporal order is 0 and a picture (710) whose temporal order is 8.
  • the temporal distance difference between the current picture (720) whose temporal order is 4 and the reference picture (700) whose temporal order is 0 and the temporal distance difference between the current picture (720) whose temporal order is 4 and the reference picture (710) whose temporal order is 8 are both 4. That is, when the current picture is a picture (720) whose temporal order is 4, the temporal distance between the current picture and the two reference pictures is greater than 2, so probability initialization for the empty A of the current picture is not performed.
  • the reference pictures restored before the current picture are a picture (700) with a temporal order of 0 and a picture (730) with a temporal order of 2.
  • the initial probability value calculation of bin A in the current picture can be performed based on the appearance probability of bin A in the reference picture.
  • the initial probability value of bin A of the current picture may be calculated based on the appearance probability of bin A obtained from the two reference pictures.
  • the initial probability value of bin A of the current picture may be calculated based on the appearance probability of bin A obtained from one of the two reference pictures.
  • which of the two reference pictures is referenced may be determined based on probability initialization reference picture information explicitly transmitted from the bitstream.
  • the probability initialization reference picture information may be transmitted/parsed at the picture or slice level. Which of the two reference pictures is referenced may be implicitly determined based on the temporal layer level, quantization parameter value, etc. of the current reference picture.
  • probability initialization for a bin to which bypass coding is applied may be performed based on the difference in quantization parameters between the current picture and a reference picture. For example, if the difference in quantization parameters between the current picture and a given reference picture A is less than or equal to T, a probability initialization value for bin A in the current picture may be calculated, where T is an arbitrary positive integer.
  • the above embodiment is described assuming that the T value is 1.
  • the reference pictures restored before the current picture are a picture (700) with a temporal order of 0 and a picture (710) with a temporal order of 8.
  • the quantization parameter difference between the current picture (720) with a temporal order of 4 and the reference picture (700) with a temporal order of 0 and the quantization parameter difference between the current picture (720) with a temporal order of 4 and the reference picture (710) with a temporal order of 8 are 2 and 1, respectively.
  • probability initialization of a bin for the current picture may be performed.
  • the quantization parameter difference between the current picture (720) and the reference picture (710) having a temporal order of 8 is 1, probability initialization of a bin A for the current picture (720) may be performed.
  • the initial probability value of the bin A may be determined according to the appearance probability of each value of the bin A of the reference picture (710) that satisfies the quantization parameter difference condition.
  • the initial probability value of bin A for the current picture (720) can be determined according to the appearance probability of each value of bin A of the two reference pictures (700, 710). And if both reference pictures (700, 710) do not satisfy the quantization parameter difference condition, the probability initialization of the bin for the current picture is not performed.
  • the appearance probability of the bin of the reference picture may not be considered in initializing the probability of the bin for the current picture.
  • the threshold value U is an arbitrary positive integer.
  • whether to apply empty probability initialization of bypass coding may be determined based on the reference structure of a Group of Pictures (GOP).
  • GOP Group of Pictures
  • an open GOP refers to a GOP that can refer to a previous GOP
  • a closed GOP refers to a GOP that cannot refer to a previous GOP.
  • a method for determining whether to initialize empty probability based on a temporal difference between the current picture and a reference picture or a method for determining whether to initialize empty probability based on a difference in quantization parameters between the current picture and the reference picture may be performed on the current picture.
  • the current GOP is a closed GOP, the two methods for determining whether to initialize empty probability described above may not be applied to the current picture.
  • the two methods for determining whether to initialize the empty probability described above may not be applied to the current picture due to issues such as buffer management and reference dependency.
  • a probability initialization value for bypass coding of a specific bin can be set based on reference block information.
  • FIG. 8 illustrates an example of inter-screen prediction of a current block (800) to explain a method for setting a probability initialization value based on reference block information.
  • the probability of occurrence of the given bin is determined. And, based on the probability of occurrence of the given bin, an initial probability value of the given bin applied to the current block (800) can be calculated.
  • FIG. 9 illustrates an example of inter-screen prediction of a current block (900) to explain a method for setting a probability initialization value based on reference block information.
  • the occurrence probability of the predetermined bin can be determined. Then, based on the occurrence probability of the predetermined bin, an initial probability value of the predetermined bin applied to the current block (900) can be calculated.
  • the size of the probability occurrence frequency collection area (920) may have any shape.
  • the probability occurrence frequency collection area (920) may be set to include samples located within a distance of U samples from the boundary of the reference block.
  • the size of the probability occurrence frequency collection area (920) may be (M+2U)x(N+2U).
  • FIG. 10 is a flowchart illustrating an image decoding method according to an embodiment of the present disclosure.
  • the image decoding method of FIG. 10 can be performed by an image decoding device.
  • step 1010 in the bypass coding of the bin of the syntax element being parsed for the current data unit, it is determined whether the current occurrence probability for a given value of the bin is initialized.
  • the current data unit may be a tile or a slice.
  • the current data unit may be a Virtual Pipeline Data Unit (VPDU).
  • VPDU Virtual Pipeline Data Unit
  • the current data unit may be a data unit of various levels, such as a picture or a coding tree unit.
  • information on whether to use empty probability initialization can be obtained from the high-level syntax. Based on the information on whether to use empty probability initialization, it can be determined whether the current occurrence probability is initialized.
  • information on a method for initializing a bin probability can be obtained from a high-level syntax. Furthermore, based on the method for initializing a bin probability indicated by the information on the method for initializing a bin probability, a reference occurrence probability for a given value of the bin can be obtained.
  • whether the current appearance probability is initialized can be determined based on the temporal difference between the current picture and the reference picture.
  • the temporal difference is a Picture Order Counter (POC) of the current picture and the reference picture, and the POC is a number assigned to the picture according to the display order.
  • POC Picture Order Counter
  • GOP Group of Pictures
  • step 1020 corresponding to the determination that the current occurrence probability is initialized, a reference occurrence probability for a given value of the bin is obtained from a reference data unit decrypted before the current data unit.
  • the reference data unit may be a data unit that was decoded immediately before the current data unit in the decoding order of the current data unit.
  • the reference data unit may be the last data unit of a reference picture decoded before the current picture when the current data unit is the first data unit of the current picture.
  • the current appearance probability is initialized.
  • a bitstream can be generated by an image encoding method including the steps described in FIG. 10.
  • the bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).
  • FIG. 11 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.
  • a content streaming system to which an embodiment of the present disclosure is applied may largely include an encoding server, a streaming server, a web server, a media storage, a user device, and a multimedia input device.
  • the encoding server compresses content input from multimedia input devices such as smartphones, cameras, and CCTVs into digital data, generates a bitstream, and transmits it to the streaming server.
  • multimedia input devices such as smartphones, cameras, and CCTVs directly generate bitstreams
  • the encoding server may be omitted.
  • the above bitstream can be generated by an image encoding method and/or an image encoding device to which an embodiment of the present disclosure is applied, and the streaming server can temporarily store the bitstream during the process of transmitting or receiving the bitstream.
  • the streaming server transmits multimedia data to a user device based on a user request via a web server, and the web server can act as an intermediary to inform the user of available services.
  • the web server transmits the request to the streaming server, and the streaming server can transmit multimedia data to the user.
  • the content streaming system may include a separate control server, and in this case, the control server may control commands/responses between each device within the content streaming system.
  • the streaming server can receive content from a media repository and/or encoding server. For example, when receiving content from the encoding server, the content can be received in real time. In this case, to provide a smooth streaming service, the streaming server can store the bitstream for a certain period of time.
  • Examples of the user devices may include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glasses, HMDs), digital TVs, desktop computers, digital signage, etc.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • navigation devices slate PCs
  • tablet PCs tablet PCs
  • ultrabooks ultrabooks
  • wearable devices e.g., smartwatches, smart glasses, HMDs
  • digital TVs desktop computers, digital signage, etc.
  • Each server within the above content streaming system can be operated as a distributed server, in which case data received from each server can be processed in a distributed manner.
  • an image can be encoded/decoded using at least one or a combination of at least one of the above embodiments.
  • the order in which the above embodiments are applied may be different in the encoding device and the decoding device. Alternatively, the order in which the above embodiments are applied may be the same in the encoding device and the decoding device.
  • the above embodiments can be performed for each of the luminance and chrominance signals. Alternatively, the above embodiments can be performed identically for the luminance and chrominance signals.
  • the methods are described based on a flowchart as a series of steps or units.
  • the present disclosure is not limited to the order of the steps, and some steps may occur in a different order or simultaneously with other steps described above.
  • those skilled in the art will understand that the steps depicted in the flowchart are not exclusive, and that other steps may be included, or one or more steps in the flowchart may be deleted without affecting the scope of the present disclosure.
  • the above embodiments may be implemented in the form of program commands that can be executed by various computer components and recorded on a computer-readable recording medium.
  • the computer-readable recording medium may include program commands, data files, data structures, etc., either singly or in combination.
  • the program commands recorded on the computer-readable recording medium may be those specifically designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software.
  • the bitstream generated by the encoding method according to the above embodiment can be stored in a non-transitory computer-readable recording medium.
  • the bitstream stored in the non-transitory computer-readable recording medium can be decoded by the decoding method according to the above embodiment.
  • examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specifically configured to store and execute program instructions such as ROMs, RAMs, and flash memories.
  • Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
  • the hardware devices may be configured to operate as one or more software modules to perform processing according to the present disclosure, and vice versa.
  • the present disclosure can be used in a device for encoding/decoding an image and a recording medium storing a bitstream.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Provided are an image encoding/decoding method, a device, a recording medium storing a bitstream, and a transmission method. The image decoding method may comprise an image decoding method comprising the steps of: determining, with respect to bypass decoding of a bin of a syntax element parsed for a current data unit, whether a current appearance probability for a predetermined value of the bin is initialized; in response to determining that the current appearance probability is initialized, obtaining a reference appearance probability for the predetermined value of the bin from a reference data unit decoded before the current data unit; and initializing the current appearance probability on the basis of the reference appearance probability.

Description

영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체 Video encoding/decoding method, device, and recording medium storing bitstream

본 개시는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체에 관한 것이다. 구체적으로, 본 개시는 바이패스 코딩을 위한 신택스 요소 확률 초기화를 적용하는 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체에 관한 것이다.The present disclosure relates to a video encoding/decoding method, a device, and a recording medium storing a bitstream. Specifically, the present disclosure relates to a video encoding/decoding method, a device, and a recording medium storing a bitstream that apply syntax element probability initialization for bypass coding.

최근 UHD(Ultra High Definition) 영상과 같은 고해상도, 고품질의 영상에 대한 수요가 다양한 응용 분야에서 증가하고 있다. 영상 데이터가 고해상도, 고품질이 될수록 기존의 영상 데이터에 비해 상대적으로 데이터량이 증가하기 때문에 기존의 유무선 광대역 회선과 같은 매체를 이용하여 영상 데이터를 전송하거나 기존의 저장 매체를 이용해 저장하는 경우, 전송 비용과 저장 비용이 증가하게 된다. 영상 데이터가 고해상도, 고품질화 됨에 따라 발생하는 이러한 문제들을 해결하기 위해서는 더 높은 해상도 및 화질을 갖는 영상에 대한 고효율 영상 부호화(encoding)/복호화(decoding) 기술이 요구된다.Recently, the demand for high-resolution, high-quality images, such as UHD (Ultra High Definition) images, is increasing across various application fields. As image data becomes higher in resolution and quality, the relative amount of data increases compared to conventional image data. Therefore, transmitting image data using existing media such as wired or wireless broadband lines or storing it using existing storage media leads to increased transmission and storage costs. To address these issues arising from the increasing resolution and quality of image data, high-efficiency image encoding/decoding technologies for higher-resolution and higher-quality images are required.

영상 부호화/복호화 기술에 있어서, 엔트로피 부호화에 의하여 신택스 요소들이 심볼의 출현 확률에 기반하여 효율적으로 부호화될 수 있다. 엔트로피 부호화에 있어서, 일련의 신택스 요소들은 빈(bin)들로 구성된 빈 스트링으로 이진화된다. 그리고 각 빈의 엔트로피 부호화를 위하여, 컨텍스트 기반 적응적 이진 산술 코딩 (context-based adaptive binary arithmetic coding, CABAC)와 바이패스 코딩 (Bypass codng) 중 하나가 적용된다. 바이패스 코딩은 빈의 출현 확률을 0.5로 고정하여, 빈 스트링과 동일한 비트스트림을 출력하는 부호화 방법이다. 바이패스 코딩의 효율성을 향상됨으로써, 전체 엔트로피 부호화기의 성능이 향상될 수 있다.In image encoding/decoding technology, syntax elements can be efficiently encoded based on the occurrence probability of symbols through entropy coding. In entropy coding, a series of syntax elements are binarized into a bin string consisting of bins. Then, for entropy coding of each bin, either context-based adaptive binary arithmetic coding (CABAC) or bypass coding is applied. Bypass coding is an encoding method that fixes the occurrence probability of a bin to 0.5 and outputs a bitstream identical to the bin string. By improving the efficiency of bypass coding, the performance of the overall entropy encoder can be improved.

본 개시는 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치를 제공하는 것을 목적으로 한다.The present disclosure aims to provide a video encoding/decoding method and device with improved encoding/decoding efficiency.

또한, 본 개시는 본 개시에 따른 영상 복호화 방법 또는 장치에 의해 생성된 비트스트림을 저장한 기록 매체를 제공하는 것을 목적으로 한다.In addition, the present disclosure aims to provide a recording medium storing a bitstream generated by an image decoding method or device according to the present disclosure.

본 개시의 일 실시예에 따른 영상 복호화 방법은, 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 디코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계, 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계, 및 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 것을 특징으로 할 수 있다.A video decoding method according to one embodiment of the present disclosure may be characterized by including, in bypass decoding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.

상기 영상 복호화 방법에 있어서, 상기 현재 데이터 단위는 타일 또는 슬라이스인 것을 특징으로 할 수 있다. In the above image decoding method, the current data unit may be characterized as being a tile or a slice.

상기 영상 복호화 방법에 있어서, 상기 현재 데이터 단위는 VPDU(Virtual pipeline data unit)인 것을 특징으로 할 수 있다.In the above image decoding method, the current data unit may be characterized as being a VPDU (Virtual pipeline data unit).

상기 영상 복호화 방법에 있어서, 상기 참조 데이터 단위는, 상기 현재 데이터 단위의 복호화 순서에 따라 바로 이전에 복호화된 데이터 단위인 것을 특징으로 할 수 있다.In the above image decoding method, the reference data unit may be characterized as being a data unit that was decoded immediately before according to the decoding order of the current data unit.

상기 영상 복호화 방법에 있어서, 상기 참조 데이터 단위는, 상기 현재 데이터 단위가 상기 현재 픽처의 첫 번째 데이터 단위일 때, 상기 현재 픽처 이전에 복호화된 참조 픽처의 마지막 데이터 단위인 것을 특징으로 할 수 있다.In the above image decoding method, the reference data unit may be characterized in that, when the current data unit is the first data unit of the current picture, it is the last data unit of the reference picture decoded before the current picture.

상기 영상 복호화 방법에 있어서, 하이 레벨 신택스로부터, 빈 확률 초기화 사용 여부 정보를 획득하는 단계를 더 포함하고, 상기 빈 확률 초기화 사용 여부 정보에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, it may further include a step of obtaining information on whether to use empty probability initialization from a high level syntax, and whether the current appearance probability is initialized is determined based on the information on whether to use empty probability initialization.

상기 영상 복호화 방법에 있어서, 하이 레벨 신택스로부터, 빈 확률 초기화 방법 정보를 획득하는 단계를 더 포함하고,상기 빈 확률 초기화 방법 정보가 나타내는 빈 확률 초기화 방법에 따라, 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 방법이 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, the method may further include a step of obtaining information on a bin probability initialization method from a high level syntax, and a method of obtaining a reference appearance probability for a predetermined value of the bin is determined according to the bin probability initialization method indicated by the information on the bin probability initialization method.

상기 영상 복호화 방법에 있어서, 상기 현재 데이터 단위의 현재 픽처가 참조하는 참조 픽처에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, it may be characterized in that it is determined whether the current appearance probability is initialized based on a reference picture referenced by the current picture of the current data unit.

상기 영상 복호화 방법에 있어서, 상기 현재 픽처와 상기 참조 픽처의 시간적 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되고, 상기 시간적 차이는 상기 현재 픽처와 상기 참조 픽처의 POC (Picture Order Counter)이며, 상기 POC는 디스플레이 순서에 따라 픽처에 부여된 번호인 것을 특징으로 할 수 있다.In the above image decoding method, it may be characterized in that whether the current appearance probability is initialized is determined based on a temporal difference between the current picture and the reference picture, and the temporal difference is a POC (Picture Order Counter) of the current picture and the reference picture, and the POC is a number assigned to a picture according to a display order.

상기 영상 복호화 방법에 있어서, 상기 현재 픽처와 상기 참조 픽처의 양자화 파라미터 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, it may be characterized in that whether the current appearance probability is initialized is determined based on the difference in quantization parameters of the current picture and the reference picture.

상기 영상 복호화 방법에 있어서, 상기 현재 픽처가 참조하는 참조 픽처의 양자화 파라미터가 소정의 문턱 값(threshold)보다 큰지 여부에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, it may be characterized in that whether the current appearance probability is initialized is determined based on whether the quantization parameter of the reference picture referenced by the current picture is greater than a predetermined threshold value.

상기 영상 복호화 방법에 있어서, 상기 현재 데이터 단위의 현재 픽처가 포함된 GOP (Group of Picture)가 개방 GOP (Open GOP) 또는 폐쇄 GOP (Close GOP)인지에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 할 수 있다.In the above image decoding method, it may be characterized in that whether the current appearance probability is initialized is determined based on whether the GOP (Group of Picture) including the current picture of the current data unit is an open GOP or a closed GOP.

본 개시의 일 실시예에 따른 영상 부호화 방법은, 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계, 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계 및 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 것을 특징으로 할 수 있다.A video encoding method according to one embodiment of the present disclosure may be characterized by including, in bypass coding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.

본 개시의 일 실시예에 따른 비 일시적 컴퓨터 판독가능한 기록 매체는, 본 개시의 다양한 실시 예에 따른 영상 부호화 방법에 의해 생성된 비트스트림을 저장할 수 있다. A non-transitory computer-readable recording medium according to one embodiment of the present disclosure can store a bitstream generated by an image encoding method according to various embodiments of the present disclosure.

본 개시의 일 실시예에 따른 비트스트림 전송 방법은, 상기 비트스트림을 전송하는 단계를 포함하고, 본 개시의 다양한 실시 예에 따른 영상 부호화 방법에 의해 생성된 비트스트림을 전송할 수 있다. A bitstream transmission method according to one embodiment of the present disclosure includes a step of transmitting the bitstream, and can transmit a bitstream generated by an image encoding method according to various embodiments of the present disclosure.

본 개시에 대하여 위에서 간략하게 요약된 특징들은 후술하는 본 개시의 상세한 설명의 예시적인 양상일 뿐이며, 본 개시의 범위를 제한하는 것은 아니다.The features briefly summarized above regarding the present disclosure are merely exemplary aspects of the detailed description of the present disclosure that follows and do not limit the scope of the present disclosure.

본 개시에 따르면, 부호화/복호화 효율이 향상된 영상 부호화/복호화 방법 및 장치가 제공될 수 있다.According to the present disclosure, a video encoding/decoding method and device with improved encoding/decoding efficiency can be provided.

또한, 본 개시에 따르면, 바이패스 코딩을 위한 신택스 요소 확률 초기화 방법이 제공될 수 있다.Additionally, according to the present disclosure, a method for initializing syntax element probabilities for bypass coding can be provided.

또한, 본 개시에 따르면, 적응적 확률에 의한 바이패스 코딩에 의하여, 엔트로피 코딩의 효율이 향상될 수 있다. Additionally, according to the present disclosure, the efficiency of entropy coding can be improved by bypass coding using adaptive probability.

또한, 본 개시에 따르면, 특정 데이터 단위 별로 바이패스 코딩의 초기화를 함으로써, 엔트로피 코딩의 효율이 향상될 수 있다. Additionally, according to the present disclosure, the efficiency of entropy coding can be improved by initializing bypass coding for each specific data unit.

본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present disclosure are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by a person having ordinary skill in the art to which the present disclosure pertains from the description below.

도 1은 본 개시가 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.FIG. 1 is a block diagram showing a configuration according to one embodiment of an encoding device to which the present disclosure is applied.

도 2는 본 개시가 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.FIG. 2 is a block diagram showing a configuration according to one embodiment of a decryption device to which the present disclosure is applied.

도 3은 본 개시가 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다.FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.

도 4는 컨텍스트 기반 적응적 이진 산술 부호화기 (Context-based Adaptive Binary Arithmetic Coding)의 구조를 설명한다.Figure 4 illustrates the structure of a context-based adaptive binary arithmetic coding.

도 5는 하나의 픽처가 여러 개의 슬라이스 또는 타일 구조로 분할된 경우 바이패스 코딩을 위한 빈의 확률 초기화를 수행하는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a method for performing probability initialization of bins for bypass coding when one picture is divided into multiple slice or tile structures.

도 6은 VPDU(Virtual pipeline data unit)에 기반하여 부호화 및 복호화가 수행되는 경우 바이패스 코딩을 위한 확률 초기화 값을 설정하는 방법을 설명한다. Figure 6 describes a method for setting a probability initialization value for bypass coding when encoding and decoding are performed based on a VPDU (Virtual pipeline data unit).

도 7은 참조 픽처 구조에 따른 빈의 확률 초기화를 설명하기 위한 참조 픽처 구조를 나타낸다.Figure 7 shows a reference picture structure for explaining the probability initialization of bins according to the reference picture structure.

도 8 및 도 9는 참조 블록 정보에 기반한 확률 초기화 값 설정 방법을 설명하기 위한 현재 블록의 화면 간 예측의 일 예를 도시한다.FIGS. 8 and 9 illustrate an example of inter-screen prediction of a current block to explain a method of setting a probability initialization value based on reference block information.

도 10은 본 개시의 일 실시 예에 따른 영상 복호화 방법을 나타내는 흐름도이다.FIG. 10 is a flowchart illustrating an image decoding method according to an embodiment of the present disclosure.

도 11은 본 개시에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타내는 도면이다.FIG. 11 is a drawing exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.

본 개시의 일 실시예에 따른 영상 복호화 방법은, 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 디코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계, 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계, 및 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 것을 특징으로 할 수 있다.A video decoding method according to one embodiment of the present disclosure may be characterized by including, in bypass decoding of a bin of a syntax element parsed for a current data unit, a step of determining whether a current appearance probability for a predetermined value of the bin is initialized; a step of obtaining a reference appearance probability for a predetermined value of the bin from a reference data unit decoded before the current data unit in response to the current appearance probability being determined to be initialized; and a step of initializing the current appearance probability based on the reference appearance probability.

본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 예시적으로 제공될 수 있다. 후술하는 예시적 실시예들에 대한 상세한 설명은, 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 실시예를 실시할 수 있기에 충분하도록 상세히 설명된다. 다양한 실시예들은 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 개시의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 실시예의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 예시적 실시예들의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다.The present disclosure is susceptible to various modifications and embodiments. Therefore, specific embodiments are illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present disclosure to specific embodiments, but rather to encompass all modifications, equivalents, and alternatives falling within the spirit and scope of the present disclosure. In the drawings, similar reference numerals designate the same or similar functions throughout. The shapes and sizes of elements in the drawings may be provided by way of example only for clarity. The detailed description of the exemplary embodiments described below refers to the accompanying drawings, which illustrate specific embodiments by way of example. These embodiments are described in sufficient detail to enable those skilled in the art to practice the embodiments. It should be understood that the various embodiments, while different from one another, are not necessarily mutually exclusive. For example, specific shapes, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the present disclosure. Furthermore, it should be understood that the positions or arrangements of individual components within each disclosed embodiment may be modified without departing from the spirit and scope of the embodiment. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the exemplary embodiments, if properly described, is defined only by the appended claims, along with the full scope equivalents to which such claims are entitled.

본 개시에서 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.While terms such as "first" and "second" may be used herein to describe various components, these components should not be limited by these terms. These terms are used solely to distinguish one component from another. For example, without departing from the scope of the present disclosure, a first component may be referred to as a "second component," and similarly, a second component may also be referred to as a "first component." The term "and/or" includes a combination of multiple related items described herein or any of multiple related items described herein.

본 개시의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 포함한 것으로 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있고 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 개시의 본질에서 벗어나지 않는 한 본 개시의 권리범위에 포함된다.The components shown in the embodiments of the present disclosure are independently depicted to represent different characteristic functions, and do not imply that each component is composed of separate hardware or a single software component. That is, each component is listed and included as a separate component for convenience of explanation, and at least two components among each component may be combined to form a single component, or a single component may be divided into multiple components to perform a function, and such integrated and separate embodiments of each component are also included in the scope of the present disclosure as long as they do not deviate from the essence of the present disclosure.

본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 또한, 본 개시의 일부의 구성 요소는 본 개시에서 본질적인 기능을 수행하는 필수적인 구성 요소는 아니고 단지 성능을 향상시키기 위한 선택적 구성 요소일 수 있다. 본 개시는 단지 성능 향상을 위해 사용되는 구성 요소를 제외한 본 개시의 본질을 구현하는데 필수적인 구성부만을 포함하여 구현될 수 있고, 단지 성능 향상을 위해 사용되는 선택적 구성 요소를 제외한 필수 구성 요소만을 포함한 구조도 본 개시의 권리범위에 포함된다.The terminology used in this disclosure is merely used to describe specific embodiments and is not intended to limit the present disclosure. The singular expression includes the plural expression unless the context clearly dictates otherwise. In addition, some components of the present disclosure may not be essential components that perform essential functions in the present disclosure and may be optional components merely for performance enhancement. The present disclosure may be implemented by including only components essential to implementing the essence of the present disclosure, excluding components used solely for performance enhancement, and a structure including only essential components, excluding optional components used solely for performance enhancement, is also within the scope of the present disclosure.

실시예에서 용어 "적어도 하나(at least one)"는 1, 2, 3 및 4와 같은 1 이상의 개수들 중 하나를 의미할 수 있다. 실시예에서 용어 "복수(a plurality of)"는 2, 3 및 4와 같은 2 이상의 개수들 중 하나를 의미할 수 있다.In an embodiment, the term "at least one" may mean one of a number greater than or equal to 1, such as 1, 2, 3, and 4. In an embodiment, the term "a plurality of" may mean one of a number greater than or equal to 2, such as 2, 3, and 4.

이하, 도면을 참조하여 본 개시의 실시 형태에 대하여 구체적으로 설명한다. 본 명세서의 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략하고, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In describing the embodiments of this specification, if a detailed description of a related known configuration or function is judged to obscure the gist of this specification, the detailed description will be omitted. The same reference numerals will be used for identical components in the drawings, and duplicate descriptions of the same components will be omitted.

용어 설명Glossary of Terms

이하에서, “영상”은 동영상(video)을 구성하는 하나의 픽처(picture)를 의미할 수 있으며, 동영상 자체를 나타낼 수도 있다. 예를 들면, "영상의 부호화 및/또는 복호화"는 "동영상의 부호화 및/또는 복호화"를 의미할 수 있으며, "동영상을 구성하는 영상들 중 하나의 영상의 부호화 및/또는 복호화"를 의미할 수도 있다.Hereinafter, “video” may mean a single picture constituting a video, or may refer to the video itself. For example, “encoding and/or decoding of a video” may mean “encoding and/or decoding of a video,” or may mean “encoding and/or decoding of one of the videos constituting the video.”

이하에서, "동영상" 및 "비디오"는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또한, 대상 영상은 부호화의 대상인 부호화 대상 영상 및/또는 복호화의 대상인 복호화 대상 영상일 수 있다. 또한, 대상 영상은 부호화 장치로 입력된 입력 영상일 수 있고, 복호화 장치로 입력된 입력 영상일 수 있다. 여기서, 대상 영상은 현재 영상과 동일한 의미를 가질 수 있다.Hereinafter, the terms "video" and "movie" may be used interchangeably and have the same meaning. Furthermore, the target image may be an encoding target image, which is the target of encoding, and/or a decoding target image, which is the target of decoding. Furthermore, the target image may be an input image input to an encoding device, or an input image input to a decoding device. Here, the target image may have the same meaning as the current image.

이하에서, 부호화기 및 영상 부호화 장치는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. Hereinafter, the terms encoder and image encoding device may be used interchangeably and have the same meaning.

이하에서, 복호화기 및 영상 복호화 장치는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. Hereinafter, the terms decoder and image decoding device may be used interchangeably and interchangeably.

이하에서, "영상(image)", "픽처(picture)", "프레임(frame)" 및 "스크린(screen)"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.Hereinafter, “image”, “picture”, “frame” and “screen” may be used with the same meaning and may be used interchangeably.

이하에서, “대상 블록”은 부호화의 대상인 부호화 대상 블록 및/또는 복호화의 대상인 복호화 대상 블록일 수 있다. 또한, 대상 블록은 현재 부호화 및/또는 복호화의 대상인 현재 블록일 수 있다. 예를 들면, "대상 블록" 및 "현재 블록"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다.Hereinafter, the term "target block" may refer to an encoding target block, which is the target of encoding, and/or a decoding target block, which is the target of decoding. Furthermore, the target block may refer to a current block, which is the target of current encoding and/or decoding. For example, the terms "target block" and "current block" may be used interchangeably and have the same meaning.

이하에서, "블록" 및 "유닛"은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 또한, “유닛”은 블록과 구분하여 지칭하기 위해 휘도(Luma) 성분 블록과 그에 대응하는 색차(Chroma) 성분 블록을 포함한 것을 의미할 수 있다. 일 예로, 부호화 트리 유닛(Coding Tree Unit, CTU)은 하나의 휘도 성분(Y) 부호화 트리 블록(Coding Tree Block, CTB)과 관련된 두 색차 성분(Cb, Cr) 부호화 트리 블록들로 구성될 수 있다. Hereinafter, "block" and "unit" may be used with the same meaning and may be used interchangeably. In addition, "unit" may mean including a luminance component block and a corresponding chroma component block to distinguish it from a block. For example, a coding tree unit (CTU) may be composed of one luma component (Y) coding tree block (CTB) and two chroma component (Cb, Cr) coding tree blocks associated with it.

이하에서, “샘플”, “화소” 및 “픽셀”은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. 여기서, 샘플은 블록을 구성하는 기본 단위를 나타낼 수 있다. Hereinafter, the terms “sample,” “pixel,” and “pixel” may be used interchangeably and have the same meaning. Here, a sample may represent a basic unit that constitutes a block.

이하에서, “인터” 및 “화면 간”은 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. Hereinafter, “inter” and “between screens” may be used interchangeably and have the same meaning.

이하에서, “인트라” 및 “화면 내”는 동일한 의미로 사용될 수 있으며, 서로 교체되어 사용될 수 있다. Hereinafter, “intra” and “within screen” may be used interchangeably and have the same meaning.

도 1은 본 개시가 적용되는 부호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.FIG. 1 is a block diagram showing a configuration according to one embodiment of an encoding device to which the present disclosure is applied.

부호화 장치(100)는 인코더, 비디오 부호화 장치 또는 영상 부호화 장치일 수 있다. 비디오는 하나 이상의 영상들을 포함할 수 있다. 부호화 장치(100)는 하나 이상의 영상들을 순차적으로 부호화할 수 있다.The encoding device (100) may be an encoder, a video encoding device, or an image encoding device. A video may include one or more images. The encoding device (100) may sequentially encode one or more images.

도 1을 참조하면, 부호화 장치(100)는 영상 분할부(110), 인트라 예측부(120), 움직임 예측부(121), 움직임 보상부(122), 스위치(115), 감산기(113), 변환부(130), 양자화부(140), 엔트로피 부호화부(150), 역양자화부(160), 역변환부(170), 가산기(117), 필터부(180) 및 참조 픽처 버퍼(190)를 포함할 수 있다.Referring to FIG. 1, the encoding device (100) may include an image segmentation unit (110), an intra prediction unit (120), a motion prediction unit (121), a motion compensation unit (122), a switch (115), a subtractor (113), a transformation unit (130), a quantization unit (140), an entropy encoding unit (150), an inverse quantization unit (160), an inverse transformation unit (170), an adder (117), a filter unit (180), and a reference picture buffer (190).

또한, 부호화 장치(100)는 입력 영상에 대한 부호화를 통해 부호화된 정보를 포함하는 비트스트림을 생성할 수 있고, 생성된 비트스트림을 출력할 수 있다. 생성된 비트스트림은 컴퓨터 판독가능한 기록 매체에 저장될 수 있거나, 유/무선 전송 매체를 통해 스트리밍될 수 있다. Additionally, the encoding device (100) can generate a bitstream including encoded information through encoding an input image and output the generated bitstream. The generated bitstream can be stored in a computer-readable recording medium or can be streamed via a wired/wireless transmission medium.

영상 분할부(110)는 동영상 부호화/복호화의 효율을 높이기 위해, 입력 영상을 다양한 형태로 분할할 수 있다. 즉, 입력 동영상은 다수의 픽처로 구성되어 있고 하나의 픽처는 압축 효율, 병렬처리 등을 위하여 계층적으로 분할되어 처리될 수 있다. 예를 들어, 하나의 픽처를 하나 또는 다수개의 타일(tile) 또는 슬라이스(slice)로 분할하고 다시 다수개의 CTU (Coding Tree Unit)로 분할할 수 있다. 또 다른 방식으로, 먼저 하나의 픽처를 직사각형 모양의 슬라이스의 그룹으로 정의되는 다수개의 서브픽처(sub-picture)로 분할하고, 각 서브픽처를 상기 타일/슬라이스로 분할할 수도 있다. 여기서, 서브픽처는 픽처를 부분적으로 독립 부호화/복호화 및 전송하는 기능을 지원하기 위하여 활용될 수 있다. 여러 개의 서브픽처는 각각 개별적으로 복원 가능하기에 멀티 채널 입력을 하나의 픽처로 구성하는 응용에 있어서 편집이 용이하다는 장점을 가지게 된다. 또한, 타일을 횡방향으로 분할하여 브릭(brick)을 생성할 수도 있다. 여기서, 브릭(brick)은 픽처내 병렬처리의 기본 단위로 활용할 수 있다. 또한, 하나의 CTU는 쿼드 트리(QT: Quadtree)로 재귀적으로 분할될 수 있고, 분할의 말단 노드를 CU (Coding Unit)라고 정의할 수 있다. CU는 예측 단위인 PU(Prediction Unit)와 변환 단위인 TU (Transform Unit)로 분할되어 예측과 분할이 수행될 수 있다. 한편, CU는 예측 단위 및/또는 변환 단위 그 자체로 활용할 수 있다. 여기서, 유연한 분할을 위하여 각 CTU는 쿼드 트리(QT) 뿐만 아니라 멀티타입 트리(MTT: Multi-Type Tree)로 재귀적으로 분할될 수도 있다. CTU는 QT의 말단 노드에서 멀티타입 트리로 분할이 시작될 수 있으며 MTT는 BT(Binary Tree)와 TT(Triple Tree)로 구성될 수 있다. 예를 들어, MTT구조에는 수직 이진 분할모드(SPLIT_BT_VER), 수평 이진 분할모드(SPLIT_BT_HOR), 수직 삼항 분할모드(SPLIT_TT_VER), 수평 삼항 분할모드(SPLIT_TT_HOR)로 구분될 수 있다. 또한, 분할 시 휘도 블록의 쿼드 트리의 최소 블록 크기(MinQTSize)는 16x16이고 바이너리 트리의 최대블록 크기(MaxBtSize)는 128x128, 트리플 트리의 최대 블록 크기(MaxTtSize)는 64x64로 설정할 수 있다. 또한, 바이너리 트리의 최소 블록 크기(MinBtSize)와 트리플 트리의 최소 블록 크기(MinTtSize)는 4x4, 멀티 타입 트리의 최대 깊이(MaxMttDepth)는 4로 지정할 수 있다. 또한 I 슬라이스의 부호화 효율을 높이기 위하여 휘도와 색차성분의 CTU 분할 구조를 서로 다르게 사용하는 듀얼 트리(dual tree)를 적용할 수도 있다. 반면 P와 B슬라이스에서는 CTU 내의 휘도와 색차 CTB (Coding Tree Block)들이 코딩 트리 구조를 공유하는 싱글 트리(single tree)로 분할할 수 있다.The video segmentation unit (110) can segment the input video into various forms to increase the efficiency of video encoding/decoding. That is, the input video is composed of multiple pictures, and one picture can be hierarchically segmented and processed for compression efficiency, parallel processing, etc. For example, one picture can be segmented into one or more tiles or slices, which can then be segmented into multiple Coding Tree Units (CTUs). Alternatively, one picture can first be segmented into multiple sub-pictures, which are defined as groups of rectangular slices, and each sub-picture can then be segmented into the tiles/slices. Here, the sub-pictures can be utilized to support the function of partially independently encoding/decoding and transmitting the picture. Since multiple sub-pictures can each be individually restored, there is an advantage of easy editing in applications that configure multi-channel input into a single picture. In addition, tiles can be segmented horizontally to generate bricks. Here, a brick can be utilized as the basic unit of intra-picture parallel processing. In addition, one CTU can be recursively split into a quadtree (QT), and the terminal node of the split can be defined as a coding unit (CU). The CU can be split into a prediction unit (PU) and a transformation unit (TU), and prediction and splitting can be performed. Meanwhile, the CU can be utilized as a prediction unit and/or a transformation unit itself. Here, for flexible splitting, each CTU can be recursively split into a multi-type tree (MTT) as well as a quadtree (QT). Splitting of a CTU into a multi-type tree can start from the terminal node of a QT, and the MTT can be composed of a binary tree (BT) and a triple tree (TT). For example, the MTT structure can be divided into vertical binary split mode (SPLIT_BT_VER), horizontal binary split mode (SPLIT_BT_HOR), vertical ternary split mode (SPLIT_TT_VER), and horizontal ternary split mode (SPLIT_TT_HOR). In addition, the minimum block size (MinQTSize) of the quad tree of the luma block during splitting can be set to 16x16, the maximum block size (MaxBtSize) of the binary tree can be set to 128x128, and the maximum block size (MaxTtSize) of the triple tree can be set to 64x64. In addition, the minimum block size (MinBtSize) of the binary tree and the minimum block size (MinTtSize) of the triple tree can be set to 4x4, and the maximum depth (MaxMttDepth) of the multi-type tree can be set to 4. In addition, in order to increase the encoding efficiency of the I slice, a dual tree that uses different CTU split structures for luma and chrominance components can be applied. On the other hand, in P and B slices, the luminance and chrominance CTBs (Coding Tree Blocks) within the CTU can be split into a single tree that shares the coding tree structure.

부호화 장치(100)는 입력 영상에 대해 인트라 모드 및/또는 인터 모드로 부호화를 수행할 수 있다. 또는, 부호화 장치(100)는 입력 영상에 대해 상기 인트라 모드 및 인터 모드가 아닌 제3의 모드 (예, IBC 모드, Palette 모드 등)로 부호화를 수행할 수도 있다. 단, 상기 제3의 모드가 인트라 모드 또는 인터 모드와 유사한 기능적 특징을 가지는 경우, 설명의 편의를 위해 인트라 모드 또는 인터 모드로 분류하기도 한다. 본 개시에서는 상기 제3의 모드에 대한 구체적인 설명이 필요한 경우에만 이를 별도로 분류하여 기술할 것이다. The encoding device (100) may perform encoding on the input image in intra mode and/or inter mode. Alternatively, the encoding device (100) may perform encoding on the input image in a third mode (e.g., IBC mode, Palette mode, etc.) other than the intra mode and inter mode. However, if the third mode has functional characteristics similar to the intra mode or inter mode, it may be classified as intra mode or inter mode for convenience of explanation. In the present disclosure, the third mode will be classified and described separately only when a specific description is required.

예측 모드로 인트라 모드가 사용되는 경우 스위치(115)는 인트라로 전환될 수 있고, 예측 모드로 인터 모드가 사용되는 경우 스위치(115)는 인터로 전환될 수 있다. 여기서 인트라 모드는 화면 내 예측 모드를 의미할 수 있으며, 인터 모드는 화면 간 예측 모드를 의미할 수 있다. 부호화 장치(100)는 입력 영상의 입력 블록에 대한 예측 블록을 생성할 수 있다. 또한, 부호화 장치(100)는 예측 블록이 생성된 후, 입력 블록 및 예측 블록의 차분(residual)을 사용하여 잔여 블록을 부호화할 수 있다. 입력 영상은 현재 부호화의 대상인 현재 영상으로 칭해질 수 있다. 입력 블록은 현재 부호화의 대상인 현재 블록 혹은 부호화 대상 블록으로 칭해질 수 있다.When the intra mode is used as the prediction mode, the switch (115) can be switched to intra, and when the inter mode is used as the prediction mode, the switch (115) can be switched to inter. Here, the intra mode can mean an intra-screen prediction mode, and the inter mode can mean an inter-screen prediction mode. The encoding device (100) can generate a prediction block for an input block of an input image. In addition, after the prediction block is generated, the encoding device (100) can encode a residual block using a residual of the input block and the prediction block. The input image can be referred to as a current image that is currently a target of encoding. The input block can be referred to as a current block that is currently a target of encoding or an encoding target block.

예측 모드가 인트라 모드인 경우, 인트라 예측부(120)는 현재 블록의 주변에 이미 부호화/복호화된 블록의 샘플을 참조 샘플로서 이용할 수 있다. 인트라 예측부(120)는 참조 샘플을 이용하여 현재 블록에 대한 공간적 예측을 수행할 수 있고, 공간적 예측을 통해 입력 블록에 대한 예측 샘플들을 생성할 수 있다. 여기서 인트라 예측은 화면 내 예측을 의미할 수 있다.When the prediction mode is intra mode, the intra prediction unit (120) can use samples of blocks already encoded/decoded around the current block as reference samples. The intra prediction unit (120) can perform spatial prediction on the current block using the reference samples, and can generate prediction samples for the input block through spatial prediction. Here, intra prediction can mean prediction within the screen.

인트라 예측 방식으로, DC 모드, Planar 모드와 같은 무방향성 예측 모드와 방향성 예측 모드 (예, 65개 방향)가 적용될 수 있다. 여기서, 인트라 예측 방식은 인트라 예측 모드 또는 화면 내 예측 모드로 표현될 수 있다.As an intra prediction method, non-directional prediction modes such as DC mode and Planar mode, as well as directional prediction modes (e.g., 65 directions) can be applied. Here, the intra prediction method can be expressed as an intra prediction mode or an intra-screen prediction mode.

예측 모드가 인터 모드인 경우, 움직임 예측부(121)는, 움직임 예측 과정에서 참조 영상으로부터 입력 블록과 가장 매치가 잘 되는 영역을 검색할 수 있고, 검색된 영역을 이용하여 움직임 벡터를 도출할 수 있다. 이때, 상기 영역으로 탐색 영역을 사용할 수 있다. 참조 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 여기서, 참조 영상에 대한 부호화/복호화가 처리되었을 때 참조 픽처 버퍼(190)에 저장될 수 있다.When the prediction mode is inter mode, the motion prediction unit (121) can search for an area that best matches the input block from the reference image during the motion prediction process and derive a motion vector using the searched area. At this time, the area can be used as a search area. The reference image can be stored in the reference picture buffer (190). Here, when encoding/decoding for the reference image is processed, it can be stored in the reference picture buffer (190).

움직임 보상부(122)는 움직임 벡터를 이용하는 움직임 보상을 수행함으로써 현재 블록에 대한 예측 블록을 생성할 수 있다. 여기서 인터 예측은 화면 간 예측 혹은 움직임 보상을 의미할 수 있다.The motion compensation unit (122) can generate a prediction block for the current block by performing motion compensation using a motion vector. Here, inter prediction may mean inter-screen prediction or motion compensation.

상기 움직임 예측부(121)와 움직임 보상부(122)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터(Interpolation Filter)를 적용하여 예측 블록을 생성할 수 있다. 화면 간 예측 혹은 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 예측 및 움직임 보상 방법이 스킵 모드(Skip Mode), 머지 모드(Merge Mode), 향상된 움직임 벡터 예측(Advanced Motion Vector Prediction; AMVP) 모드, 인트라 블록 카피(Intra Block Copy; IBC) 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 화면 간 예측 혹은 움직임 보상을 수행할 수 있다.The above motion prediction unit (121) and motion compensation unit (122) can generate a prediction block by applying an interpolation filter to a portion of an area within a reference image when the value of the motion vector does not have an integer value. In order to perform inter-screen prediction or motion compensation, it is possible to determine whether the motion prediction and motion compensation method of the prediction unit included in the corresponding encoding unit is one of Skip Mode, Merge Mode, Advanced Motion Vector Prediction (AMVP) mode, and Intra Block Copy (IBC) mode based on the encoding unit, and perform inter-screen prediction or motion compensation according to each mode.

또한, 상기 화면 간 예측 방법을 기초로, sub-PU 기반 예측의 AFFINE 모드, SbTMVP (Subblock-based Temporal Motion Vector Prediction) 모드, 및 PU 기반 예측의 MMVD(Merge with MVD) 모드, GPM(Geometric Partitioning Mode) 모드를 적용할 수도 있다. 또한, 각 모드의 성능 향상을 위하여 HMVP(History based MVP), PAMVP(Pairwise Average MVP), CIIP(Combined Intra/Inter Prediction), AMVR(Adaptive Motion Vector Resolution), BDOF(Bi-Directional Optical-Flow), BCW(Bi-predictive with CU Weights), LIC (Local Illumination Compensation), TM(Template Matching), OBMC(Overlapped Block Motion Compensation) 등을 적용할 수도 있다. In addition, based on the above inter-screen prediction method, the AFFINE mode of sub-PU based prediction, the SbTMVP (Subblock-based Temporal Motion Vector Prediction) mode, and the MMVD (Merge with MVD) mode and the GPM (Geometric Partitioning Mode) mode of PU based prediction can be applied. In addition, in order to improve the performance of each mode, the HMVP (History based MVP), the PAMVP (Pairwise Average MVP), the CIIP (Combined Intra/Inter Prediction), the AMVR (Adaptive Motion Vector Resolution), the BDOF (Bi-Directional Optical-Flow), the BCW (Bi-predictive with CU Weights), the LIC (Local Illumination Compensation), the TM (Template Matching), and the OBMC (Overlapped Block Motion Compensation) can be applied.

이 중, AFFINE 모드는 AMVP와 MERGE 모드에서 모두 사용되고 부호화 효율 또한 높은 기술이다. 종래 동영상 코딩 표준에서는 블록의 평행이동만을 고려하여 MC(Motion Compensation)를 수행하기 때문에 줌 인/아웃(zoom in/out), 회전(rotation)과 같이 현실에서 발생하는 움직임을 제대로 보상하지 못하는 단점이 있었다. 이를 보완하여, 두 개의 컨트롤 포인트 움직임 벡터(control point motion vector, CPMV)를 사용하는 4 파라미터 어파인 움직임 모델과 세 개의 컨트롤 포인트 움직임 벡터를 사용하는 6 파라미터 어파인 움직임 모델을 사용하여 인터 예측에 적용할 수 있다. 여기서, CPMV는 현재 블록의 왼쪽 상단, 오른쪽 상단, 왼쪽 하단 중 어느 하나의 어파인 움직임 모델을 표현하는 벡터이다. Among these, AFFINE mode is a technology that is used in both AMVP and MERGE modes and also has high encoding efficiency. In the existing video coding standard, since MC (Motion Compensation) is performed by considering only the parallel translation of the block, there was a disadvantage in that it could not properly compensate for motions that occur in reality, such as zoom in/out and rotation. To supplement this, a 4-parameter affine motion model using two control point motion vectors (CPMV) and a 6-parameter affine motion model using three control point motion vectors can be applied to inter prediction. Here, CPMV is a vector representing the affine motion model of one of the upper left, upper right, and lower left of the current block.

감산기(113)는 입력 블록 및 예측 블록의 차분을 사용하여 잔여 블록을 생성할 수 있다. 잔여 블록은 잔여 신호로 칭해질 수도 있다. 잔여 신호는 원 신호 및 예측 신호 간의 차이(difference)를 의미할 수 있다. 또는, 잔여 신호는 원신호 및 예측 신호 간의 차이를 변환(transform)하거나, 양자화하거나, 또는 변환 및 양자화함으로써 생성된 신호일 수 있다. 잔여 블록은 블록 단위의 잔여 신호일 수 있다.The subtractor (113) can generate a residual block using the difference between the input block and the predicted block. The residual block may also be referred to as a residual signal. The residual signal may refer to the difference between the original signal and the predicted signal. Alternatively, the residual signal may be a signal generated by transforming, quantizing, or transforming and quantizing the difference between the original signal and the predicted signal. The residual block may be a residual signal in block units.

변환부(130)는 잔여 블록에 대해 변환(transform)을 수행하여 변환 계수(transform coefficient)를 생성할 수 있고, 생성된 변환 계수를 출력할 수 있다. 여기서, 변환 계수는 잔여 블록에 대한 변환을 수행함으로써 생성된 계수 값일 수 있다. 변환 생략(transform skip) 모드가 적용되는 경우, 변환부(130)는 잔여 블록에 대한 변환을 생략할 수도 있다.The transform unit (130) can perform a transform on the residual block to generate a transform coefficient and output the generated transform coefficient. Here, the transform coefficient may be a coefficient value generated by performing a transform on the residual block. When the transform skip mode is applied, the transform unit (130) may also skip the transform on the residual block.

변환 계수 또는 잔여 신호에 양자화를 적용함으로써 양자화된 레벨(quantized level)이 생성될 수 있다. 이하, 실시예들에서는 양자화된 레벨도 변환 계수로 칭해질 수 있다.Quantized levels can be generated by applying quantization to transform coefficients or residual signals. In the following embodiments, quantized levels may also be referred to as transform coefficients.

일 예로, 인트라 예측을 통해 생성된 4x4 휘도 잔차 블록은 DST(Discrete Sine Transform) 기반 기저 벡터를 통해 변환하며, 나머지 잔차 블록에 대해서는 DCT(Discrete Cosine Transform) 기반의 기저 벡터를 사용하여 변환을 수행할 수 있다. 또한 RQT(Residual Quad Tree) 기술을 통하여 하나의 블록에 대하여 변환 블록을 쿼드 트리 형태로 분할하며 RQT를 통해 분할된 각 변환 블록에 대하여 변환과 양자화를 수행하고 난 후 모든 계수가 0이 되는 경우의 부호화 효율을 높이기 위해 cbf(coded block flag)를 전송할 수 있다. For example, a 4x4 luminance residual block generated through intra prediction can be transformed using a basis vector based on DST (Discrete Sine Transform), and the remaining residual blocks can be transformed using a basis vector based on DCT (Discrete Cosine Transform). In addition, through RQT (Residual Quad Tree) technology, the transform block is divided into a quad tree shape for one block, and after performing transformation and quantization on each transform block divided through RQT, a coded block flag (cbf) can be transmitted to increase encoding efficiency when all coefficients become 0.

또 다른 대안으로는, 여러 변환 기저를 선택적으로 사용하여 변환을 수행하는 MTS(Multiple Transform Selection) 기술을 적용할 수도 있다. 즉, CU를 RQT를 통해 TU로 분할하지 않고, SBT(Sub-block Transform) 기술을 통해 TU분할과 유사한 기능을 수행할 수 있다. 구체적으로, SBT는 화면 간 예측 블록에만 적용되며 RQT와 달리 현재 블록을 수직 혹은 수평 방향으로 ½ 혹은 ¼ 크기로 분할한 뒤 그 중 하나의 블록에 대해서만 변환을 수행할 수 있다. 예를 들어, 수직으로 분할된 경우 맨 왼쪽 혹은 맨 오른쪽 블록에 대해 변환을 수행하고, 수평으로 분할된 경우 맨 위쪽 혹은 맨 아래쪽 블록에 대하여 변환을 수행할 수 있다. Another alternative is to apply Multiple Transform Selection (MTS) technology, which selectively performs transformation using multiple transformation bases. That is, instead of dividing CUs into TUs via RQT, a Sub-block Transform (SBT) technology can perform a function similar to TU division. Specifically, SBT is applied only to inter-screen prediction blocks, and unlike RQT, it can divide the current block into ½ or ¼ blocks vertically or horizontally, and then perform transformation on only one of the blocks. For example, in a vertically divided block, the transformation can be performed on the leftmost or rightmost block, and in a horizontally divided block, the transformation can be performed on the topmost or bottommost block.

또한 DCT 또는 DST를 통해 주파수 영역으로 변환된 잔차 신호를 추가 변환하는 2차 변환 (secondary transform) 기술인 LFNST(Low Frequency Non-Separable Transform)를 적용할 수도 있다. LFNST는 좌측 상단의 4x4 또는 8x8의 저주파수 영역에 대해서 변환을 추가적으로 수행하여 잔차 계수를 좌측 상단으로 집중시킬 수 있게 된다.Additionally, LFNST (Low Frequency Non-Separable Transform), a secondary transform technique that further transforms the residual signal converted to the frequency domain through DCT or DST, can be applied. LFNST additionally performs a transform on the low-frequency region of 4x4 or 8x8 in the upper left, which allows the residual coefficients to be concentrated in the upper left.

양자화부(140)는 변환 계수 또는 잔여 신호를 양자화 매개변수 (QP, Quantization parameter)에 따라 양자화함으로써 양자화된 레벨을 생성할 수 있고, 생성된 양자화된 레벨을 출력할 수 있다. 이때, 양자화부(140)에서는 양자화 행렬을 사용하여 변환 계수를 양자화할 수 있다.The quantization unit (140) can generate a quantized level by quantizing a transform coefficient or residual signal according to a quantization parameter (QP), and can output the generated quantized level. At this time, the quantization unit (140) can quantize the transform coefficient using a quantization matrix.

일 예로, 0~51 QP 값을 사용하는 양자화기를 사용할 수 있다. 또는, 영상의 크기가 보다 크고 높은 부호화 효율이 요구되는 경우에는, 0~63 QP를 사용할 수도 있다. 또한 하나의 양자화기를 사용하는 것이 아닌 두 개의 양자화기를 사용하는 DQ(Dependent Quantization) 방법을 적용할 수도 있다. DQ는 두개의 양자화기(예, Q0, Q1)를 사용하여 양자화를 수행하되, 특정 양자화기 사용에 대한 정보를 시그널링 하지 않더라도, 상태 전이 모델을 통해 현재 상태에 기반하여 다음 변환 계수에 사용할 양자화기가 선택되도록 적용할 수 있다.For example, a quantizer with QP values of 0 to 51 can be used. Alternatively, if the image size is larger and high encoding efficiency is required, a QP of 0 to 63 can be used. In addition, a Dependent Quantization (DQ) method that uses two quantizers instead of a single quantizer can be applied. DQ performs quantization using two quantizers (e.g., Q0 and Q1), but even without signaling information about the use of a specific quantizer, the quantizer to be used for the next transform coefficient can be selected based on the current state through a state transition model.

엔트로피 부호화부(150)는, 양자화부(140)에서 산출된 값들 또는 부호화 과정에서 산출된 부호화 파라미터(Coding Parameter) 값들 등에 대하여 확률 분포에 따른 엔트로피 부호화를 수행함으로써 비트스트림(bitstream)을 생성할 수 있고, 비트스트림을 출력할 수 있다. 엔트로피 부호화부(150)는 영상의 샘플에 관한 정보 및 영상의 복호화를 위한 정보에 대한 엔트로피 부호화를 수행할 수 있다. 예를 들면, 영상의 복호화를 위한 정보는 구문 요소(syntax element) 등을 포함할 수 있다. The entropy encoding unit (150) can generate a bitstream by performing entropy encoding according to a probability distribution on values produced by the quantization unit (140) or coding parameter values produced during the encoding process, and can output the bitstream. The entropy encoding unit (150) can perform entropy encoding on information about image samples and information for decoding the image. For example, the information for decoding the image can include syntax elements, etc.

엔트로피 부호화가 적용되는 경우, 높은 발생 확률을 갖는 심볼(symbol)에 적은 수의 비트가 할당되고 낮은 발생 확률을 갖는 심볼에 많은 수의 비트가 할당되어 심볼이 표현됨으로써, 부호화 대상 심볼들에 대한 비트열의 크기가 감소될 수 있다. 엔트로피 부호화부(150)는 엔트로피 부호화를 위해 지수 골롬(exponential Golomb), CAVLC(Context-Adaptive Variable Length Coding), CABAC(Context-Adaptive Binary Arithmetic Coding)과 같은 부호화 방법을 사용할 수 있다. 예를 들면, 엔트로피 부호화부(150)는 가변 길이 부호화(Variable Length Coding/Code; VLC) 테이블을 이용하여 엔트로피 부호화를 수행할 수 있다. 또한 엔트로피 부호화부(150)는 대상 심볼의 이진화(binarization) 방법 및 대상 심볼/빈(bin)의 확률 모델(probability model)을 도출한 후, 도출된 이진화 방법, 확률 모델, 문맥 모델(Context Model)을 사용하여 산술 부호화를 수행할 수도 있다.When entropy encoding is applied, a small number of bits are allocated to symbols with a high occurrence probability, and a large number of bits are allocated to symbols with a low occurrence probability, thereby representing the symbols, whereby the size of the bit string for the symbols to be encoded can be reduced. The entropy encoding unit (150) can use an encoding method such as exponential Golomb, Context-Adaptive Variable Length Coding (CAVLC), or Context-Adaptive Binary Arithmetic Coding (CABAC) for entropy encoding. For example, the entropy encoding unit (150) can perform entropy encoding using a Variable Length Coding/Code (VLC) table. In addition, the entropy encoding unit (150) may perform arithmetic encoding using the binarization method, probability model, and context model derived from the binarization method of the target symbol and the probability model of the target symbol/bin.

관련하여, CABAC을 적용함에 있어서, 복호화 장치에서 저장되는 확률 테이블의 크기를 줄이고자, 테이블 확률 업데이트 방식을 간단한 수식을 통한 테이블 업데이트 방식으로 변경하여 적용할 수도 있다. 또한 더 정확한 심볼의 확률 값을 얻기 위하여 2개의 서로 다른 확률 모델을 사용할 수도 있다.In this regard, when applying CABAC, the table probability update method can be changed to a simple formula-based table update method to reduce the size of the probability table stored in the decryption device. Furthermore, two different probability models can be used to obtain more accurate symbol probability values.

엔트로피 부호화부(150)는 변환 계수 레벨(양자화된 레벨)을 부호화하기 위해 변환 계수 스캐닝(Transform Coefficient Scanning) 방법을 통해 2차원의 블록 형태(form) 계수를 1차원의 벡터 형태로 변경할 수 있다.The entropy encoding unit (150) can change a two-dimensional block form coefficient into a one-dimensional vector form through a transform coefficient scanning method to encode a transform coefficient level (quantized level).

부호화 파라미터(Coding Parameter)는 구문 요소 (syntax element)와 같이 부호화 장치(100)에서 부호화되어 복호화 장치(200)로 시그널링되는 정보(플래그, 색인 등)뿐만 아니라, 부호화 과정 혹은 복호화 과정에서 유도되는 정보를 포함할 수 있으며, 영상을 부호화하거나 복호화할 때 필요한 정보를 의미할 수 있다. Coding parameters may include not only information (flags, indexes, etc.) encoded in an encoding device (100) and signaled to a decoding device (200), such as syntax elements, but also information derived during an encoding process or a decoding process, and may mean information necessary when encoding or decoding an image.

여기서, 플래그 혹은 색인을 시그널링(signaling)한다는 것은 인코더에서는 해당 플래그 혹은 색인을 엔트로피 부호화(Entropy Encoding)하여 비트스트림(Bitstream)에 포함하는 것을 의미할 수 있고, 디코더에서는 비트스트림으로부터 해당 플래그 혹은 색인을 엔트로피 복호화(Entropy Decoding)하는 것을 의미할 수 있다.Here, signaling a flag or index may mean that the encoder entropy encodes the flag or index and includes it in the bitstream, and that the decoder entropy decodes the flag or index from the bitstream.

부호화된 현재 영상은 이후에 처리되는 다른 영상에 대한 참조 영상으로서 사용될 수 있다. 따라서, 부호화 장치(100)는 부호화된 현재 영상을 다시 복원 또는 복호화할 수 있고, 복원 또는 복호화된 영상을 참조 영상으로 참조 픽처 버퍼(190)에 저장할 수 있다.The encoded current image can be used as a reference image for other images to be processed later. Accordingly, the encoding device (100) can reconstruct or decode the encoded current image again and store the reconstructed or decoded image as a reference image in the reference picture buffer (190).

양자화된 레벨은 역양자화부(160)에서 역양자화(dequantization)될 수 있고. 역변환부(170)에서 역변환(inverse transform)될 수 있다. 역양자화 및/또는 역변환된 계수는 가산기(117)를 통해 예측 블록과 합해질 수 있다, 역양자화 및/또는 역변환된 계수와 예측 블록을 합함으로써 복원 블록(reconstructed block)이 생성될 수 있다. 여기서, 역양자화 및/또는 역변환된 계수는 역양자화 및 역변환 중 적어도 하나 이상이 수행된 계수를 의미하며, 복원된 잔여 블록을 의미할 수 있다. 상기 역양자화부(160) 및 역변환부(170)는 양자화부(140) 및 변환부(130)의 역과정으로 수행될 수 있다.The quantized level can be dequantized in the dequantization unit (160) and inversely transformed in the inverse transformation unit (170). The dequantized and/or inversely transformed coefficients can be combined with a prediction block through an adder (117), and a reconstructed block can be generated by combining the dequantized and/or inversely transformed coefficients and the prediction block. Here, the dequantized and/or inversely transformed coefficients refer to coefficients on which at least one of dequantization and inverse transformation has been performed, and may refer to a reconstructed residual block. The dequantization unit (160) and the inverse transformation unit (170) can be performed in the reverse process of the quantization unit (140) and the transformation unit (130).

복원 블록은 필터부(180)를 거칠 수 있다. 필터부(180)는 디블록킹 필터(deblocking filter), 샘플 적응적 오프셋(Sample Adaptive Offset; SAO), 적응적 루프 필터(Adaptive Loop Filter; ALF), 양방향 필터 (Bilateral filter; BIF), LMCS (Luma Mapping with Chroma Scaling) 등을 복원 샘플, 복원 블록 또는 복원 영상에, 전부 또는 일부 필터링 기술로 적용할 수 있다. 필터부(180)는 인-루프 필터(in-loop filter)로 칭해질 수도 있다. 이때, 인-루프 필터(in-loop filter)는 LMCS를 제외하는 명칭으로 사용하기도 한다. The restoration block may pass through a filter unit (180). The filter unit (180) may apply a deblocking filter, a sample adaptive offset (SAO), an adaptive loop filter (ALF), a bilateral filter (BIF), a Luma Mapping with Chroma Scaling (LMCS), etc. as a filtering technique, in whole or in part, to the restoration sample, restoration block, or restoration image. The filter unit (180) may also be referred to as an in-loop filter. In this case, the in-loop filter is also used as a name excluding LMCS.

디블록킹 필터는 블록들 간의 경계에서 발생한 블록 왜곡을 제거할 수 있다. 디블록킹 필터를 수행할지 여부를 판단하기 위해 블록에 포함된 몇 개의 열 또는 행에 포함된 샘플을 기초로 현재 블록에 디블록킹 필터 적용할지 여부를 판단할 수 있다. 블록에 디블록킹 필터를 적용하는 경우 필요한 디블록킹 필터링 강도에 따라 서로 다른 필터를 적용할 수 있다.A deblocking filter can remove block distortion that occurs at the boundaries between blocks. Whether to apply a deblocking filter to the current block can be determined based on the samples contained in several columns or rows within the block. When applying a deblocking filter to a block, different filters can be applied depending on the required deblocking filtering strength.

샘플 적응적 오프셋을 이용하여 부호화 에러를 보상하기 위해 샘플 값에 적정 오프셋(offset) 값을 더할 수 있다. 샘플 적응적 오프셋은 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정할 수 있다. 영상에 포함된 샘플을 일정한 수의 영역으로 구분한 후 오프셋을 수행할 영역을 결정하고 해당 영역에 오프셋을 적용하는 방법 또는 각 샘플의 에지 정보를 고려하여 오프셋을 적용하는 방법을 사용할 수 있다.Sample adaptive offset can be used to compensate for encoding errors by adding an appropriate offset value to sample values. Sample adaptive offset can compensate for the offset from the original image on a sample-by-sample basis for deblocked images. This can be done by dividing the samples contained in the image into a fixed number of regions, determining the regions to be offset, and applying the offset to those regions. Alternatively, the offset can be applied by considering the edge information of each sample.

양방향 필터 (Bilateral filter; BIF) 또한 디블록킹을 수행한 영상에 대해 샘플 단위로 원본 영상과의 오프셋을 보정할 수 있다.Bilateral filter (BIF) can also compensate for the offset from the original image on a sample-by-sample basis for the deblocked image.

적응적 루프 필터는 복원 영상 및 원래의 영상을 비교한 값에 기반하여 필터링을 수행할 수 있다. 영상에 포함된 샘플을 소정의 그룹으로 나눈 후 해당 그룹에 적용될 필터를 결정하여 그룹마다 차별적으로 필터링을 수행할 수 있다. 적응적 루프 필터를 적용할지 여부에 관련된 정보는 부호화 유닛(Coding Unit, CU) 별로 시그널링될 수 있고, 각각의 블록에 따라 적용될 적응적 루프 필터의 모양 및 필터 계수는 달라질 수 있다.An adaptive loop filter can perform filtering based on a comparison between a reconstructed image and the original image. By dividing the samples contained in the image into predetermined groups and determining the filter to be applied to each group, filtering can be performed differentially for each group. Information regarding whether to apply an adaptive loop filter can be signaled for each coding unit (CU), and the shape and filter coefficients of the adaptive loop filter applied to each block can vary.

LMCS(Luma Mapping with Chroma Scaling)에서, 루마 매핑(LM, Luma-mapping)은 piece-wise 선형 모델을 통해 휘도 값을 재맵핑 하는 것을 의미하고, 크로마 스케일링(CS, Chroma scaling)은 예측 신호의 평균 휘도 값에 따라 색차 성분의 잔차 값을 스케일링해주는 기술을 의미한다. 특히, LMCS는 HDR(High Dynamic Range) 영상의 특성을 반영한 HDR 보정 기술로 활용될 수 있다. In LMCS (Luma Mapping with Chroma Scaling), luma mapping (LM) refers to remapping luminance values through a piece-wise linear model, and chroma scaling (CS) refers to a technique that scales the residual values of chrominance components according to the average luminance value of the prediction signal. In particular, LMCS can be utilized as an HDR correction technique that reflects the characteristics of HDR (High Dynamic Range) images.

필터부(180)를 거친 복원 블록 또는 복원 영상은 참조 픽처 버퍼(190)에 저장될 수 있다. 필터부(180)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(180)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 혹은 움직임 보상에 사용될 수 있다.The restored block or restored image that has passed through the filter unit (180) may be stored in the reference picture buffer (190). The restored block that has passed through the filter unit (180) may be a part of the reference image. In other words, the reference image may be a restored image composed of restored blocks that have passed through the filter unit (180). The stored reference image may be used for inter-screen prediction or motion compensation thereafter.

도 2는 본 개시가 적용되는 복호화 장치의 일 실시예에 따른 구성을 나타내는 블록도이다.FIG. 2 is a block diagram showing a configuration according to one embodiment of a decryption device to which the present disclosure is applied.

복호화 장치(200)는 디코더, 비디오 복호화 장치 또는 영상 복호화 장치일 수 있다.The decoding device (200) may be a decoder, a video decoding device, or an image decoding device.

도 2를 참조하면, 복호화 장치(200)는 엔트로피 복호화부(210), 역양자화부(220), 역변환부(230), 인트라 예측부(240), 움직임 보상부(250), 가산기(201), 스위치 (203), 필터부(260) 및 참조 픽처 버퍼(270)를 포함할 수 있다.Referring to FIG. 2, the decoding device (200) may include an entropy decoding unit (210), an inverse quantization unit (220), an inverse transformation unit (230), an intra prediction unit (240), a motion compensation unit (250), an adder (201), a switch (203), a filter unit (260), and a reference picture buffer (270).

복호화 장치(200)는 부호화 장치(100)에서 출력된 비트스트림을 수신할 수 있다. 복호화 장치(200)는 컴퓨터 판독가능한 기록 매체에 저장된 비트스트림을 수신하거나, 유/무선 전송 매체를 통해 스트리밍되는 비트스트림을 수신할 수 있다. 복호화 장치(200)는 비트스트림에 대하여 인트라 모드 또는 인터 모드로 복호화를 수행할 수 있다. 또한, 복호화 장치(200)는 복호화를 통해 복원된 영상 또는 복호화된 영상을 생성할 수 있고, 복원된 영상 또는 복호화된 영상을 출력할 수 있다.The decoding device (200) can receive a bitstream output from the encoding device (100). The decoding device (200) can receive a bitstream stored in a computer-readable recording medium, or a bitstream streamed through a wired/wireless transmission medium. The decoding device (200) can perform decoding on the bitstream in intra mode or inter mode. In addition, the decoding device (200) can generate a restored image or a decoded image through decoding, and can output the restored image or the decoded image.

복호화에 사용되는 예측 모드가 인트라 모드인 경우 스위치(203)가 인트라로 전환될 수 있다. 복호화에 사용되는 예측 모드가 인터 모드인 경우 스위치(203)가 인터로 전환될 수 있다.If the prediction mode used for decryption is intra mode, the switch (203) can be switched to intra. If the prediction mode used for decryption is inter mode, the switch (203) can be switched to inter.

복호화 장치(200)는 입력된 비트스트림을 복호화하여 복원된 잔여 블록(reconstructed residual block)을 획득할 수 있고, 예측 블록을 생성할 수 있다. 복원된 잔여 블록 및 예측 블록이 획득되면, 복호화 장치(200)는 복원된 잔여 블록과 및 예측 블록을 더함으로써 복호화 대상이 되는 복원 블록을 생성할 수 있다. 복호화 대상 블록은 현재 블록으로 칭해질 수 있다.The decoding device (200) can decode the input bitstream to obtain a reconstructed residual block and generate a prediction block. Once the reconstructed residual block and the prediction block are obtained, the decoding device (200) can generate a reconstructed block to be decoded by adding the reconstructed residual block and the prediction block. The block to be decoded may be referred to as a current block.

엔트로피 복호화부(210)는 비트스트림에 대한 확률 분포에 따른 엔트로피 복호화를 수행함으로써 심볼들을 생성할 수 있다. 생성된 심볼들은 양자화된 레벨 형태의 심볼을 포함할 수 있다. 여기에서, 엔트로피 복호화 방법은 상술된 엔트로피 부호화 방법의 역과정일 수 있다.The entropy decoding unit (210) can generate symbols by performing entropy decoding according to a probability distribution for the bitstream. The generated symbols may include symbols in the form of quantized levels. Here, the entropy decoding method may be the reverse process of the entropy encoding method described above.

엔트로피 복호화부(210)는 변환 계수 레벨(양자화된 레벨)을 복호화하기 위해 변환 계수 스캐닝 방법을 통해 1차원의 벡터 형태 계수를 2차원의 블록 형태로 변경할 수 있다. The entropy decoding unit (210) can change a one-dimensional vector-shaped coefficient into a two-dimensional block-shaped coefficient through a transform coefficient scanning method to decode a transform coefficient level (quantized level).

양자화된 레벨은 역양자화부(220)에서 역양자화될 수 있고, 역변환부(230)에서 역변환될 수 있다. 양자화된 레벨은 역양자화 및/또는 역변환이 수행된 결과로서, 복원된 잔여 블록으로 생성될 수 있다. 이때, 역양자화부(220)는 양자화된 레벨에 양자화 행렬을 적용할 수 있다. 복호화 장치에 적용되는 역양자화부(220) 및 역변환부(230)는 전술한 부호화 장치에 적용되는 역양자화부(160) 및 역변환부(170)와 동일한 기술을 적용할 수 있다.The quantized level can be inversely quantized in the inverse quantization unit (220) and inversely transformed in the inverse transformation unit (230). The quantized level can be generated as a restored residual block as a result of performing inverse quantization and/or inverse transformation. At this time, the inverse quantization unit (220) can apply a quantization matrix to the quantized level. The inverse quantization unit (220) and inverse transformation unit (230) applied to the decoding device can apply the same technology as the inverse quantization unit (160) and inverse transformation unit (170) applied to the encoding device described above.

인트라 모드가 사용되는 경우, 인트라 예측부(240)는 복호화 대상 블록 주변의 이미 복호화된 블록의 샘플 값을 이용하는 공간적 예측을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다. 복호화 장치에 적용되는 인트라 예측부(240)는 전술한 부호화 장치에 적용되는 인트라 예측부(120)와 동일한 기술을 적용할 수 있다. When intra mode is used, the intra prediction unit (240) can generate a predicted block by performing spatial prediction on the current block using sample values of already decoded blocks surrounding the block to be decoded. The intra prediction unit (240) applied to the decoding device can apply the same technology as the intra prediction unit (120) applied to the encoding device described above.

인터 모드가 사용되는 경우, 움직임 보상부(250)는 움직임 벡터 및 참조 픽처 버퍼(270)에 저장되어 있는 참조 영상을 이용하는 움직임 보상을 현재 블록에 대해 수행함으로써 예측 블록을 생성할 수 있다. 상기 움직임 보상부(250)는 움직임 벡터의 값이 정수 값을 가지지 않을 경우에 참조 영상 내의 일부 영역에 대해 보간 필터를 적용하여 예측 블록을 생성할 수 있다. 움직임 보상을 수행하기 위해 부호화 유닛을 기준으로 해당 부호화 유닛에 포함된 예측 유닛의 움직임 보상 방법이 스킵 모드, 머지 모드, AMVP 모드, 현재 픽처 참조 모드 중 어떠한 방법인지 여부를 판단할 수 있고, 각 모드에 따라 움직임 보상을 수행할 수 있다. 복호화 장치에 적용되는 움직임 보상부(250)는 전술한 부호화 장치에 적용되는 움직임 보상부(122)와 동일한 기술을 적용할 수 있다. When the inter mode is used, the motion compensation unit (250) can generate a prediction block by performing motion compensation using a motion vector and a reference image stored in the reference picture buffer (270) on the current block. The motion compensation unit (250) can generate a prediction block by applying an interpolation filter to a portion of the reference image when the value of the motion vector does not have an integer value. In order to perform motion compensation, it is possible to determine whether the motion compensation method of the prediction unit included in the corresponding encoding unit is skip mode, merge mode, AMVP mode, or current picture reference mode based on the encoding unit, and motion compensation can be performed according to each mode. The motion compensation unit (250) applied to the decoding device can apply the same technology as the motion compensation unit (122) applied to the encoding device described above.

가산기(201)는 복원된 잔여 블록 및 예측 블록을 가산하여 복원 블록을 생성할 수 있다. 필터부(260)는 Inverse-LMCS, 디블록킹 필터, 샘플 적응적 오프셋 및 적응적 루프 필터 등 적어도 하나를 복원 블록 또는 복원 영상에 적용할 수 있다. 복호화 장치에 적용되는 필터부(260)는 전술한 부호화 장치에 적용되는 필터부(180)에 적용된 필터링 기술과 동일한 기술을 적용할 수 있다.The adder (201) can add the restored residual block and the predicted block to generate a restored block. The filter unit (260) can apply at least one of an Inverse-LMCS, a deblocking filter, a sample adaptive offset, and an adaptive loop filter to the restored block or restored image. The filter unit (260) applied to the decoding device can apply the same filtering technology as that applied to the filter unit (180) applied to the encoding device described above.

필터부(260)는 복원 영상을 출력할 수 있다. 복원 블록 또는 복원 영상은 참조 픽처 버퍼(270)에 저장되어 인터 예측에 사용될 수 있다. 필터부(260)를 거친 복원 블록은 참조 영상의 일부일 수 있다. 말하자면, 참조 영상은 필터부(260)를 거친 복원 블록들로 구성된 복원 영상일 수 있다. 저장된 참조 영상은 이후 화면 간 예측 혹은 움직임 보상에 사용될 수 있다.The filter unit (260) can output a restored image. The restored block or restored image can be stored in the reference picture buffer (270) and used for inter prediction. The restored block that has passed through the filter unit (260) can be a part of the reference image. In other words, the reference image can be a restored image composed of restored blocks that have passed through the filter unit (260). The stored reference image can be used for inter-screen prediction or motion compensation thereafter.

도 3은 본 개시가 적용될 수 있는 비디오 코딩 시스템을 개략적으로 나타내는 도면이다.FIG. 3 is a diagram schematically illustrating a video coding system to which the present disclosure can be applied.

일 실시예에 따른 비디오 코딩 시스템은 부호화 장치(10) 및 복호화 장치(20)를 포함할 수 있다. 부호화 장치(10)는 부호화된 비디오(video) 및/또는 영상(image) 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)로 전달할 수 있다. A video coding system according to one embodiment may include an encoding device (10) and a decoding device (20). The encoding device (10) may transmit encoded video and/or image information or data to the decoding device (20) in the form of a file or streaming through a digital storage medium or a network.

일 실시예에 따른 부호화 장치(10)는 비디오 소스 생성부(11), 부호화부(12), 전송부(13)를 포함할 수 있다. 일 실시예에 따른 복호화 장치(20)는 수신부(21), 복호화부(22) 및 렌더링부(23)를 포함할 수 있다. 상기 부호화부(12)는 비디오/영상 부호화부라고 불릴 수 있고, 상기 복호화부(22)는 비디오/영상 복호화부라고 불릴 수 있다. 전송부(13)는 부호화부(12)에 포함될 수 있다. 수신부(21)는 복호화부(22)에 포함될 수 있다. 렌더링부(23)는 디스플레이부를 포함할 수도 있고, 디스플레이부는 별개의 디바이스 또는 외부 컴포넌트로 구성될 수도 있다.An encoding device (10) according to one embodiment may include a video source generation unit (11), an encoding unit (12), and a transmission unit (13). A decoding device (20) according to one embodiment may include a reception unit (21), a decoding unit (22), and a rendering unit (23). The encoding unit (12) may be referred to as a video/image encoding unit, and the decoding unit (22) may be referred to as a video/image decoding unit. The transmission unit (13) may be included in the encoding unit (12). The reception unit (21) may be included in the decoding unit (22). The rendering unit (23) may include a display unit, and the display unit may be configured as a separate device or an external component.

비디오 소스 생성부(11)는 비디오/영상의 캡쳐, 합성 또는 생성 과정 등을 통하여 비디오/영상을 획득할 수 있다. 비디오 소스 생성부(11)는 비디오/영상 캡쳐 디바이스 및/또는 비디오/영상 생성 디바이스를 포함할 수 있다. 비디오/영상 캡쳐 디바이스는 예를 들어, 하나 이상의 카메라, 이전에 캡쳐된 비디오/영상을 포함하는 비디오/영상 아카이브 등을 포함할 수 있다. 비디오/영상 생성 디바이스는 예를 들어 컴퓨터, 타블렛 및 스마트폰 등을 포함할 수 있으며 (전자적으로) 비디오/영상을 생성할 수 있다. 예를 들어, 컴퓨터 등을 통하여 가상의 비디오/영상이 생성될 수 있으며, 이 경우 관련 데이터가 생성되는 과정으로 비디오/영상 캡쳐 과정이 갈음될 수 있다.The video source generation unit (11) can obtain video/images through a process of capturing, synthesizing, or generating video/images. The video source generation unit (11) can include a video/image capture device and/or a video/image generation device. The video/image capture device can include, for example, one or more cameras, a video/image archive including previously captured video/images, etc. The video/image generation device can include, for example, a computer, a tablet, a smartphone, etc., and can (electronically) generate video/images. For example, a virtual video/image can be generated through a computer, etc., in which case the video/image capture process can be replaced with a process of generating related data.

부호화부(12)는 입력 비디오/영상을 부호화할 수 있다. 부호화부(12)는 압축 및 부호화 효율을 위하여 예측, 변환, 양자화 등 일련의 절차를 수행할 수 있다. 부호화부(12)는 부호화된 데이터(부호화된 비디오/영상 정보)를 비트스트림(bitstream) 형태로 출력할 수 있다. 상기 부호화부(12)의 상세 구성은 전술한 도 1의 부호화 장치(100)와 동일하게 구성하는 것도 가능하다.The encoding unit (12) can encode the input video/image. The encoding unit (12) can perform a series of procedures such as prediction, transformation, and quantization for compression and encoding efficiency. The encoding unit (12) can output encoded data (encoded video/image information) in the form of a bitstream. The detailed configuration of the encoding unit (12) can also be configured in the same manner as the encoding device (100) of FIG. 1 described above.

전송부(13)는 비트스트림 형태로 출력된 부호화된 비디오/영상 정보 또는 데이터를 파일 또는 스트리밍 형태로 디지털 저장매체 또는 네트워크를 통하여 복호화 장치(20)의 수신부(21)로 전달할 수 있다. 디지털 저장 매체는 USB, SD, CD, DVD, 블루레이, HDD, SSD 등 다양한 저장 매체를 포함할 수 있다. 전송부(13)는 미리 정해진 파일 포맷을 통하여 미디어 파일을 생성하기 위한 엘리먼트를 포함할 수 있고, 방송/통신 네트워크를 통한 전송을 위한 엘리먼트를 포함할 수 있다. 수신부(21)는 상기 저장매체 또는 네트워크로부터 상기 비트스트림을 추출/수신하여 복호화부(22)로 전달할 수 있다.The transmission unit (13) can transmit encoded video/image information or data output in the form of a bitstream to the reception unit (21) of the decoding device (20) via a digital storage medium or a network in the form of a file or streaming. The digital storage medium can include various storage media such as USB, SD, CD, DVD, Blu-ray, HDD, SSD, etc. The transmission unit (13) can include an element for generating a media file through a predetermined file format and can include an element for transmission via a broadcasting/communication network. The reception unit (21) can extract/receive the bitstream from the storage medium or network and transmit it to the decoding unit (22).

복호화부(22)는 부호화부(12)의 동작에 대응하는 역양자화, 역변환, 예측 등 일련의 절차를 수행하여 비디오/영상을 복호화할 수 있다. 상기 복호화부(22)의 상세 구성은 전술한 도 2의 복호화 장치(200)와 동일하게 구성하는 것도 가능하다.The decoding unit (22) can decode video/image by performing a series of procedures such as inverse quantization, inverse transformation, and prediction corresponding to the operation of the encoding unit (12). The detailed configuration of the decoding unit (22) can also be configured in the same manner as the decoding device (200) of FIG. 2 described above.

렌더링부(23)는 복호화된 비디오/영상을 렌더링할 수 있다. 렌더링된 비디오/영상은 디스플레이부를 통하여 디스플레이될 수 있다. The rendering unit (23) can render the decrypted video/image. The rendered video/image can be displayed through the display unit.

이하, 도 4 내지 도 10을 참고하여, 본 개시의 일 실시 예에 따른 바이패스 코딩이 적용되는 빈에 대한 빈 확률 초기화 방법을 구체적으로 설명하도록 한다. Hereinafter, with reference to FIGS. 4 to 10, a method for initializing bin probability for bins to which bypass coding is applied according to an embodiment of the present disclosure will be specifically described.

도 4는 컨텍스트 기반 적응적 이진 산술 부호화기 (Context-based Adaptive Binary Arithmetic Coding) (400) 의 구조를 설명한다.Figure 4 illustrates the structure of a context-based adaptive binary arithmetic coding (400).

컨텍스트 기반 적응적 이진 산술 부호화기 (400)는 신택스 요소 이진화(syntax element binarization) (402), 컨텍스트 모델 및 확률 업데이트 기반 정규 코딩 모드(regular coding mode) (404), 바이패스 코딩 모드(bypass coding mode) (406) 로 구성된다. 신택스 요소 이진화 (402) 단계에서, 영상의 부호화 과정에서 생성된 신택스 요소들은 이진화 과정을 통해 0과 1만으로 이루어진 빈(bin)의 배열인 빈 스트링(bin string)으로 변환된다. 그리고 빈 스트링의 각각의 빈에 대하여, 정규 코딩 모드 (404) 또는 바이패스 코딩 모드 (406)가 적용됨으로써 비트스트림이 생성된다. 정규 코딩 모드 (404)에서, 빈 스트링은 컨텍스트 모델링(context modeling)에 따른 빈의 확률에 따라 부호화된다. 그리고, 바이패스 코딩 모드 (406)에서, 이진화된 빈 스트링은 그대로 비트스트림으로 출력된다. 즉, 바이패스 코딩은 부호화 및 복호화의 복잡도를 줄이기 위해 특정 신택스 요소에 대해 적용되는 단순 코딩 방법이다.A context-based adaptive binary arithmetic encoder (400) is composed of syntax element binarization (402), a regular coding mode (404) based on a context model and probability update, and a bypass coding mode (406). In the syntax element binarization (402) step, syntax elements generated during an image encoding process are converted into a bin string, which is an array of bins consisting of only 0s and 1s, through a binarization process. Then, a bitstream is generated by applying the regular coding mode (404) or the bypass coding mode (406) to each bin of the bin string. In the regular coding mode (404), the bin string is encoded according to the probability of the bin according to context modeling. Then, in the bypass coding mode (406), the binarized bin string is output as a bitstream. That is, bypass coding is a simple coding method applied to specific syntax elements to reduce the complexity of encoding and decoding.

바이패스 코딩은 컨텍스트 모델 없이 수행된다. 일 실시예에 따르면, 현재 빈의 확률은 0.5 (0의 확률과 1의 확률을 각각 0.5로 설정)으로 고정될 수 있다. 이 때 빈 스트링은 그대로 비트스트림으로 출력될 수 있다. 바이패스 코딩은 컨텍스트 기반 적응적 이진 산술 코딩이 적용되어도, 부호화 효율이 향상되기 어렵거나 또는 낮은 복잡도가 필요할 경우, 적용될 수 있다. 다만, 바이패스 코딩은, 데이터 단위에 관계없이 고정된 확률 (0.5)이 적용되므로, 부호화 효율에 한계가 발생할 수 있다.Bypass coding is performed without a context model. In one embodiment, the probability of the current bin can be fixed to 0.5 (the probability of 0 and the probability of 1 are each set to 0.5). In this case, the bin string can be output as a bitstream. Bypass coding can be applied when it is difficult to improve encoding efficiency or when low complexity is required even when context-based adaptive binary arithmetic coding is applied. However, since bypass coding applies a fixed probability (0.5) regardless of the data unit, encoding efficiency may be limited.

따라서, 데이터 단위에 따라, 바이패스 코딩이 적용되는 빈의 확률을 다르게 설정함으로써, 바이패스 코딩의 효율성을 향상시킬 수 있다. 이 때, 현재 데이터 이전에 부호화 또는 복호화된 데이터 단위들 중 현재 데이터 단위와 가장 연관성이 높은 데이터 단위를 참조하여 바이패스 코딩이 적용되는 빈의 확률을 결정할 때, 바이패스 코딩의 효율성이 향상될 가능성이 높다. Therefore, by setting the probability of the bins to which bypass coding is applied differently depending on the data unit, the efficiency of bypass coding can be improved. In this case, when determining the probability of the bins to which bypass coding is applied by referencing the data unit most closely related to the current data unit among the data units encoded or decoded prior to the current data, the efficiency of bypass coding is likely to be improved.

특히, 하이 레벨에서 바이패스 코딩의 신택스 요소 확률 초기화 방법의 적용 여부를 가변적으로 조절함으로써, 초 저 지연 비디오를 위한 부호기/복호기의 복잡도가 감소할 수 있다. 예를 들어 초 지연 비디오에 대하여, 모든 신택스 요소에 대해 바이패스 코딩 엔진을 적용될 수 있다. 또는, 적어도 하나의 신택스 요소 단위로 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보가ㅣ 결정될 수 있다.In particular, by variably controlling whether to apply the syntax element probability initialization method of bypass coding at a high level, the complexity of the encoder/decoder for ultra-low latency video can be reduced. For example, for ultra-low latency video, the bypass coding engine can be applied to all syntax elements. Alternatively, information on whether to use empty probability initialization and information on the empty probability initialization method can be determined for at least one syntax element.

그러므로 본 개시에서, 바이패스 코딩이 적용되는 빈의 확률을 고정된 확률이 아닌 다른 확률로 초기화 또는 변경할지 여부를 결정하는 방법이 설명된다. 그리고 빈의 확률의 초기화 또는 변경이 결정된 경우, 현재 데이터에 대하여 바이패스 코딩에 이용되는 빈의 확률을 결정하는 방법이 제안된다. 본 개시에서, 빈의 값이 0 또는 1이며, 빈의 확률은 빈이 소정의 값 (0 또는 1)을 가질 출현 확률을 나타낸다. 또한 본 개시에서 빈의 확률 초기화는 빈의 확률을 고정된 디폴트 확률이 아닌 다른 확률로 변경하는 것을 의미하며, 빈 확률 초기화가 적용된 데이터 단위에 대하여, 초기화된 (또는 변경된) 확률이 빈의 바이패스 코딩에 적용된다. 그리고 현재 출현 확률은 현재 데이터 단위에서 적용되는 빈의 소정의 값 출현 확률을 나타내며, 참조 출현 확률 (또는 확률 초기화 값)은 참조 (이전) 데이터 단위에서 적용되는 빈의 소정의 값 출현 확률을 나타낸다.Therefore, in the present disclosure, a method for determining whether to initialize or change the probability of a bin to which bypass coding is applied to a probability other than a fixed probability is described. In addition, when the initialization or change of the probability of a bin is determined, a method for determining the probability of a bin used for bypass coding for current data is proposed. In the present disclosure, the value of a bin is 0 or 1, and the probability of a bin represents the probability of occurrence of the bin having a predetermined value (0 or 1). In addition, in the present disclosure, initializing the probability of a bin means changing the probability of the bin to a probability other than a fixed default probability, and for a data unit to which the bin probability initialization is applied, the initialized (or changed) probability is applied to bypass coding of the bin. In addition, the current occurrence probability represents the probability of occurrence of a predetermined value of a bin applied to the current data unit, and the reference occurrence probability (or probability initialization value) represents the probability of occurrence of a predetermined value of a bin applied to a reference (previous) data unit.

일 실시 예에 다르면, 바이패스 코딩의 빈 확률 초기화 방법이 사용되는지 나타내는 빈 확률 초기화 사용 여부 정보가 파싱될 수 있다. 복호화 단에서, 빈 확률 초기화 사용 여부 정보에 기초하여, 바이패스 코딩에 빈 확률 초기화가 적용되는지 결정될 수 있다.In one embodiment, information indicating whether empty probability initialization is used for bypass coding may be parsed. At the decoding stage, based on the information indicating whether empty probability initialization is used, it may be determined whether empty probability initialization is applied to bypass coding.

또한, 복수의 빈 확률 초기화 방법들 중 현재 데이터 단위에 적용되는 빈 확률 초기화 방법을 나타내는 빈 확률 초기화 방법 정보가 파싱될 수 있다. 복호화 단에서, 빈 확률 초기화 방법 정보에 기초하여, 바이패스 코딩에 사용되는 빈 확률 초기화 방법이 결정될 수 있다.Additionally, information on the empty probability initialization method, which indicates the empty probability initialization method applied to the current data unit among multiple empty probability initialization methods, can be parsed. At the decoding stage, the empty probability initialization method used for bypass coding can be determined based on the empty probability initialization method information.

일 실시 예에 따르면, 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보는 별개의 신택스 요소로 구현될 수 있다. 또는 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보는 하나의 신택스 요소로 구현될 수 있다.In one embodiment, the information on whether to use empty probability initialization and the information on how to initialize empty probability may be implemented as separate syntax elements. Alternatively, the information on whether to use empty probability initialization and the information on how to initialize empty probability may be implemented as a single syntax element.

빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보가 구현된 신택스 요소는 적어도 하나 이상의 하이 레벨 신택스에서 시그널링 될 수 있다. 예를 들면, 상기 신택스 요소는 VPS(video parameter set), SPS(sequence parameter set), PPS(picture parameter set), APS(adaptation parameter set), PH(Picture Header), 및 SH(Slice header) 중 적어도 하나 이상에서 플래그 형태 혹은 인덱스 형태로 전송될 수 있다. 일 실시 예에 따르면, 만약 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법은 별개의 신택스 요소로 구현된 경우, 서로 다른 레벨의 하이 레벨 신택스에 포함될 수 있다.A syntax element that implements information on whether to use empty probability initialization and information on how to initialize empty probability can be signaled in at least one high-level syntax. For example, the syntax element can be transmitted in the form of a flag or an index in at least one of a video parameter set (VPS), a sequence parameter set (SPS), a picture parameter set (PPS), an adaptation parameter set (APS), a picture header (PH), and a slice header (SH). According to an embodiment, if the information on whether to use empty probability initialization and the empty probability initialization method are implemented as separate syntax elements, they can be included in high-level syntaxes of different levels.

일 실시 예에 따르면, 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보은 바이패스 코딩이 적용되는 빈들 중 확률 초기화가 허용되는 하나 이상의 빈에 대하여 적용될 수 있다. 또한, 확률 초기화가 허용되는 빈들에 대하여, 확률 초기화 여부를 각각 결정하기 위하여, 상기 빈들 각각에 대하여 빈 확률 초기화 사용 여부 정보에 대응되는 하나 이상의 신택스 요소가 정의될 수 있다. 또한, 확률 초기화가 수행되는 빈에 대한 빈 확률 초기화 방법을 결정하기 위하여, 상기 빈들 각각에 대하여 빈 확률 초기화 방법 정보에 대응되는 하나 이상의 신택스 요소가 정의될 수 있다. 상기 신택스 요소는 실시 예에 따라 확률 초기화가 허용되는 한 개 이상의 빈에 적용될 수 있다.According to one embodiment, the information on whether to use bin probability initialization and the information on the bin probability initialization method may be applied to one or more bins among bins to which bypass coding is applied, in which probability initialization is allowed. In addition, for the bins to which probability initialization is allowed, in order to determine whether to perform probability initialization, one or more syntax elements corresponding to the information on whether to use bin probability initialization may be defined for each of the bins. In addition, in order to determine the bin probability initialization method for the bins on which probability initialization is performed, one or more syntax elements corresponding to the information on the bin probability initialization method may be defined for each of the bins. The syntax elements may be applied to one or more bins to which probability initialization is allowed, according to an embodiment.

일 실시 예에 따르면, 픽처 단위로 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보가 각각 전송될 수 있다. 현재 픽처 또는 참조 픽처가 특정한 병렬화 단위(예를 들어, 슬라이스 (slice) 단위, 타일 (tile) 단위, 혹은 VPDU (virtual pipeline data unit) 단위)로 분할된 경우, 해당 병렬화 단위에 대하여 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보가 각각 전송될 수 있다. 또한, 빈 확률 초기화 사용 여부 정보와 빈 확률 초기화 방법 정보는 비디오 시퀀스 단위로 적용될 수 있다.According to one embodiment, information on whether to use empty probability initialization and information on the empty probability initialization method may be transmitted on a picture-by-picture basis. If a current picture or a reference picture is divided into specific parallelization units (e.g., slice units, tile units, or VPDU (virtual pipeline data unit) units), information on whether to use empty probability initialization and information on the empty probability initialization method may be transmitted for each parallelization unit. In addition, information on whether to use empty probability initialization and information on the empty probability initialization method may be applied on a video sequence basis.

일 실시 예에 따르면, 하나의 신택스 요소를 구성하는 빈들 중 두 개 이상의 빈에 대하여 바이패스 코딩이 수행될 수 있다. 이 때, 바이패스 코딩이 적용되는 신택스 요소의 빈들에 대하여 일괄적으로 빈 확률 초기화의 사용 여부와 확률 초기화 방법이 결정될 수 있다. 다만 각 빈의 확률 초기화 값은 서로 독립적으로 결정될 수 있다.In one embodiment, bypass coding may be performed on two or more bins among the bins constituting a single syntax element. In this case, whether to use bin probability initialization and the probability initialization method may be determined collectively for the bins of the syntax element to which bypass coding is applied. However, the probability initialization values for each bin may be determined independently.

또는 바이패스 코딩이 적용되는 신택스 요소의 빈들 각각에 대하여, 빈 확률 초기화의 사용 여부와 확률 초기화 방법이 결정될 수 있다. 그리고 바이패스 코딩이 적용되는 신택스 요소의 빈들 각각에 대하여, 확률 초기화 값이 서로 독립적으로 결정될 수 있다.Alternatively, for each bin of a syntax element to which bypass coding is applied, whether to use bin probability initialization and the probability initialization method can be determined. In addition, for each bin of a syntax element to which bypass coding is applied, the probability initialization value can be determined independently.

본 개시에서, 픽처의 분할 구조가 슬라이스(slice) 또는 타일(tile)로 분할될 경우, 현재 슬라이스 또는 현재 타일의 특정 신택스 요소의 빈의 바이패스 코딩을 위한 확률 초기화 값이 어떻게 설정되는지 설명된다.In the present disclosure, when the partition structure of a picture is partitioned into slices or tiles, it is described how a probability initialization value for bypass coding of a bin of a specific syntax element of a current slice or current tile is set.

도 5는 하나의 픽처가 여러 개의 슬라이스 또는 타일 구조로 분할된 경우 바이패스 코딩을 위한 빈의 확률 초기화를 수행하는 방법을 설명하기 위한 도면이다.FIG. 5 is a diagram illustrating a method for performing probability initialization of bins for bypass coding when one picture is divided into multiple slice or tile structures.

도 5의 현재 픽처 (500)와 이전 픽처 (510)은 일 예로, 9개의 데이터 단위 (슬라이스 또는 타일)로 분할된 것으로 도시되었다. 그러나 실시 예에 따라, 빈의 바이패스 코딩을 위한 확률 초기화 결정 방법이 적용되는 픽처는 9개가 아닌 다른 개수의 데이터 단위로 분할될 수 있다. 도 5에서 하나의 픽처 내의 작은 정사각형 블록은 하나의 코딩 트리 유닛 (coding tree unit, CTU) 블록을 나타낸다. 그리고 하나의 픽처 내의 굵은 직선은 슬라이스 또는 타일의 경계를 나타낸다. The current picture (500) and the previous picture (510) of FIG. 5 are illustrated as being divided into, for example, nine data units (slices or tiles). However, depending on the embodiment, the picture to which the probability initialization decision method for bypass coding of bins is applied may be divided into a number of data units other than nine. In FIG. 5, a small square block within a picture represents a coding tree unit (CTU) block. And a thick straight line within a picture represents the boundary of a slice or tile.

일 실시 예에 따르면, 이전 슬라이스 단위 또는 이전 타일 단위의 신택스 요소의 빈의 특정 값의 참조 출현 확률에 기반하여, 현재 슬라이스 또는 현재 타일의 신택스 요소의 빈의 바이패스 코딩을 위한 확률 초기화 값 (특정 값의 현재 출현 확률)이 설정될 수 있다. 이하, 신택스 요소 A의 빈 A에 바이패스 코딩이 적용되고, 특정 값은 0임을 가정하여 실시 예가 설명된다.According to one embodiment, a probability initialization value (current occurrence probability of a specific value) for bypass coding of a bin of a syntax element of a current slice or current tile may be set based on the reference occurrence probability of a specific value of a bin of a syntax element of a previous slice unit or a previous tile unit. Hereinafter, the embodiment is described assuming that bypass coding is applied to bin A of syntax element A and the specific value is 0.

예를 들어, 도 5에서 픽처의 9개의 데이터 단위가 슬라이스일 경우, 첫 번째 슬라이스 (slice1) (502)에서 빈 A가 0 값을 가질 참조 출현 확률이 결정된다. 그리고 첫 번째 슬라이스 (slice1) (502)의 빈 A에 대한 참조 출현 확률에 따라, 두 번째 슬라이스 (slice2) (504)의 빈 A에 대한 확률 초기 값 (현재 출현 확률)이 결정될 수 있다.For example, if nine data units of a picture in FIG. 5 are slices, the reference appearance probability that bin A will have a value of 0 in the first slice (slice1) (502) is determined. Then, based on the reference appearance probability for bin A in the first slice (slice1) (502), the initial probability value (current appearance probability) for bin A in the second slice (slice2) (504) can be determined.

또는 도 5에서 픽처의 9개의 데이터 단위가 타일일 경우, 첫 번째 타일 (tile1) (502)에서 빈 A가 0 값을 가질 참조 출현 확률이 결정된다. 그리고 첫 번째 타일 (tile1) (502)의 빈 A에 대한 참조 출현 확률에 따라, 두 번째 타일 (tile2) (504)의 빈 A에 대한 확률 초기 값 (현재 출현 확률)이 결정될 수 있다.Alternatively, if the nine data units of the picture in FIG. 5 are tiles, the reference appearance probability that the blank A in the first tile (tile1) (502) will have a value of 0 is determined. Then, based on the reference appearance probability for the blank A in the first tile (tile1) (502), the initial probability value (current appearance probability) for the blank A in the second tile (tile2) (504) can be determined.

일 실시 예에 따르면, 현재 픽처의 첫 번째 슬라이스 또는 첫 번째 타일의 빈의 바이패스 코딩을 위한 확률 초기화 값 (현재 출현 확률)은, 이전 픽처의 마지막 슬라이스 또는 마지막 타일의 빈의 참조 출현 확률에 기반하여 결정될 수 있다.According to one embodiment, the probability initialization value (current appearance probability) for bypass coding of the bin of the first slice or the first tile of the current picture can be determined based on the reference appearance probability of the bin of the last slice or the last tile of the previous picture.

예를 들어, 도 5에서 픽처의 9개의 데이터 단위가 슬라이스일 경우, 이전 픽처 (510)의 마지막 슬라이스 (slice9) (512)에서 빈 A가 0 값을 가질 참조 출현 확률이 결정된다. 그리고 빈 A의 참조 출현 확률에 따라, 현재 픽처 (500)의 첫 번째 슬라이스 (slice1) (502)의 빈 A에 적용되는 확률 초기 값 (현재 출현 확률)이 결정될 수 있다.For example, if nine data units of a picture in FIG. 5 are slices, the reference appearance probability that bin A will have a value of 0 in the last slice (slice9) (512) of the previous picture (510) is determined. Then, according to the reference appearance probability of bin A, the initial probability value (current appearance probability) applied to bin A of the first slice (slice1) (502) of the current picture (500) can be determined.

또는 도 5에서 픽처의 9개의 데이터 단위가 타일일 경우, 이전 픽처 (510)의 마지막 타일 (tile9) (512)에서 빈 A가 0 값을 가질 참조 출현 확률이 결정된다. 그리고 빈 A의 참조 출현 확률에 따라, 현재 픽처 (500)의 첫 번째 타일 (tile1) (502)의 빈 A에 적용되는 확률 초기 값 (현재 출현 확률)이 결정될 수 있다.Alternatively, if the nine data units of the picture in FIG. 5 are tiles, the reference appearance probability that the blank A will have a value of 0 in the last tile (tile9) (512) of the previous picture (510) is determined. Then, according to the reference appearance probability of the blank A, the initial probability value (current appearance probability) applied to the blank A of the first tile (tile1) (502) of the current picture (500) can be determined.

상기 실시 예에서는 참조 출현 확률의 결정을 위하여 하나의 이전 데이터 단위가 참조된 것으로 설명되었다. 그러나, 일 실시 예에 따르면, 참조 출현 확률의 결정을 위하여, 둘 이상의 이전 데이터 단위가 참조될 수 있다. 예를 들어, 도 5에서, 픽처의 9개의 데이터 단위가 타일일 경우, 세 번째 타일 (tile3) (506)의 빈 A에 대한 확률 초기 값을 결정하기 위하여, 첫 번째 타일 (tile1) (502) 및 두 번째 타일 (tile2) (504)으로부터 참조 출현 확률이 결정될 수 있다. 상기 데이터 단위가 슬라이스인 경우에도 마찬가지로 적용된다.In the above embodiment, it was described that one previous data unit was referenced to determine the reference appearance probability. However, according to one embodiment, two or more previous data units may be referenced to determine the reference appearance probability. For example, in FIG. 5, when nine data units of a picture are tiles, the reference appearance probability may be determined from the first tile (tile1) (502) and the second tile (tile2) (504) to determine the probability initial value for the bin A of the third tile (tile3) (506). The same applies when the data unit is a slice.

일 실시 예에 따르면, 참조 출현 확률의 결정을 위하여, 둘 이상의 이전 데이터 단위가 참조되는 경우, 각 이전 데이터 단위의 빈의 소정의 값의 출현 확률을 평균하여, 참조 출현 확률이 결정될 수 있다.According to one embodiment, in order to determine the reference occurrence probability, when two or more previous data units are referenced, the reference occurrence probability may be determined by averaging the occurrence probabilities of predetermined values of the bins of each previous data unit.

또는, 각 이전 데이터 단위의 가중치에 따라, 참조 출현 확률이 결정될 수 있다. 예를 들어, 현재 데이터 단위와 부호화 순서상 가까운 이전 데이터 단위에 대하여 높은 가중치가 부여되고, 현재 데이터 단위와 부호화 순서상 먼 이전 데이터 단위에 대하여 낮은 가중치가 부여될 수 있다. 그리고, 각 이전 데이터 단위의 빈의 소정의 값의 출현 확률을 상기 가중치에 따라, 가중 평균하여, 참조 출현 확률이 결정될 수 있다. 예를 들어, 세 번째 타일 (tile3) (506)의 빈 A에 대한 확률 초기 값을 결정할 때, 첫 번째 타일 (tile1) (502)의 빈 A의 소정 값의 출현 확률보다 두 번째 타일 (tile2) (504) 의 빈 A의 소정 값의 출현 확률에 더 높은 가중치를 부여할 수 있다. 상기 데이터 단위가 슬라이스인 경우에도 마찬가지로 적용된다.Alternatively, the reference occurrence probability may be determined based on the weight of each previous data unit. For example, a high weight may be assigned to a previous data unit that is close to the current data unit in encoding order, and a low weight may be assigned to a previous data unit that is far from the current data unit in encoding order. In addition, the reference occurrence probability may be determined by weighting and averaging the occurrence probabilities of a predetermined value in the bins of each previous data unit based on the weights. For example, when determining the probability initial value for bin A of the third tile (tile3) (506), a higher weight may be assigned to the occurrence probability of a predetermined value in bin A of the second tile (tile2) (504) than to the occurrence probability of a predetermined value in bin A of the first tile (tile1) (502). The same applies when the data unit is a slice.

일 실시 예에 따르면, 하나의 이전 데이터 단위가 참조될 경우, 이전 데이터 단위의 빈의 바이패스 코딩을 위하여 참조된 참조 출현 확률과 이전 데이터 단위에서 빈의 실제 출현 확률에 기초하여, 이전 데이터 단위의 참조 출현 확률이 결정될 수 있다. 예를 들어, 세 번째 타일 (tile3) (506)의 빈 A에 대한 확률 초기 값을 결정하기 위하여 두 번째 타일 (tile2) (504)만 참조하는 경우, 두 번째 타일 (tile2) (504)의 확률 초기 값을 결정하기 위하여 참조한 참조 출현 확률과 두 번째 타일 (tile2) (504)에서 빈의 소정 값의 실제 출현 확률에 기초하여, 세 번째 타일 (tile3) (506)이 참조할 참조 출현 확률이 결정될 수 있다. 상기 데이터 단위가 슬라이스인 경우에도 마찬가지로 적용된다.According to one embodiment, when a previous data unit is referenced, the reference occurrence probability of the previous data unit may be determined based on the reference occurrence probability referenced for bypass coding of the bin of the previous data unit and the actual occurrence probability of the bin in the previous data unit. For example, when only the second tile (tile2) (504) is referenced to determine the probability initial value for bin A of the third tile (tile3) (506), the reference occurrence probability to be referenced by the third tile (tile3) (506) may be determined based on the reference occurrence probability referenced for determining the probability initial value of the second tile (tile2) (504) and the actual occurrence probability of the predetermined value of the bin in the second tile (tile2) (504). The same applies when the data unit is a slice.

일 실시 예에 따르면, 참조 출현 확률의 결정을 위하여, 이전 데이터 단위의 실제 출현 확률을 누적하여 확률 초기 값을 결정할 수 있다. 확률 초기 값의 초기화는 픽처 단위, 특정 슬라이스 단위, 특정 타일 단위로 수행할 수 있다.In one embodiment, to determine the reference occurrence probability, the actual occurrence probability of previous data units may be accumulated to determine the probability initial value. The probability initial value may be initialized on a picture-by-picture basis, a specific slice basis, or a specific tile basis.

일 실시 예에 따르면, 픽처의 첫 번째 슬라이스 또는 첫 번째 타일의 빈의 바이패스 코딩을 위한 확률 초기화 값은, 이전 픽처 전체 또는 일부 영역 내의 해당 빈의 실제 출현 확률을 기반하여 결정될 수 있다.According to one embodiment, the probability initialization value for bypass coding of a bin of a first slice or a first tile of a picture may be determined based on the actual occurrence probability of that bin within the entire or a portion of the previous picture.

본 개시의 실시 예들에 따르면, 이전 복호화 과정에서 파싱된 빈의 0 값에 대한 출현 확률은 수학식 1에 따라 계산될 수 있다.According to embodiments of the present disclosure, the occurrence probability for a 0 value of a bin parsed in a previous decryption process can be calculated according to mathematical expression 1.

[수학식 1][Mathematical Formula 1]

수학식 1에서, total_countbin_A는 현재 데이터 단위 이전에 복호화된 소정 범위의 데이터 단위들에 대하여 파싱된 빈 A의 총 개수를 나타낸다. occurrence_count[0]bin_A는 현재 데이터 단위 이전에 복호화된 소정 범위의 데이터 단위들에 대하여 파싱된 0 값을 가진 빈 A들의 개수를 나타낸다. 그리고 probability[0]bin_A은 현재 데이터 단위 이전에 복호화된 소정 범위의 데이터 단위들에서 0 값을 가지는 빈 A의 출현 확률을 나타낸다. 반대로, probability[1]bin_A는 현재 데이터 단위 이전에 복호화된 소정 범위의 데이터 단위들에서 1 값을 가지는 빈 A의 출현 확률을 나타낸다.In mathematical expression 1, total_count bin_A represents the total number of bins A parsed for a given range of data units decoded before the current data unit. occurrence_count[0] bin_A represents the number of bins A having a value of 0 parsed for a given range of data units decoded before the current data unit. And probability[0] bin_A represents the probability of occurrence of bin A having a value of 0 in a given range of data units decoded before the current data unit. Conversely, probability[1] bin_A represents the probability of occurrence of bin A having a value of 1 in a given range of data units decoded before the current data unit.

상기 probability[0]bin_A와 probability[1]bin_A는 현재 픽처의 빈 A의 0과 1 에 대한 초기 확률 값으로 결정될 수 있다. 또는 현재 픽처의 빈 A의 바이패스 코딩을 수행하기 위한 빈의 0과 1 에 대한 초기 확률 값은 probability[0]bin_A와 probability[1]bin_A를 변형하여 결정될 수 있다.The above probability[0] bin_A and probability[1] bin_A can be determined as the initial probability values for 0 and 1 of bin A of the current picture. Alternatively, the initial probability values for 0 and 1 of bin A for performing bypass coding of the current picture can be determined by transforming probability[0] bin_A and probability[1] bin_A .

probability[0]bin_A와 probability[1]bin_A에 기반하여 결정된 현재 데이터 단위의 빈 A의 0과 1 에 대한 초기 확률 값에 따라, 빈 A에 대한 바이패스 코딩이 수행될 수 있다. 상기 데이터 단위는 픽처, 슬라이스, 타일 등을 포함한다. 또한, 여기서 bin_A는 바이패스 코딩이 수행되는 임의의 신택스 요소의 빈을 의미한다.Bypass coding for bin A can be performed based on the initial probability values for 0 and 1 of bin A of the current data unit determined based on probability[0] bin_A and probability[1] bin_A . The data unit includes a picture, a slice, a tile, etc. In addition, here, bin_A means a bin of any syntax element for which bypass coding is performed.

도 6은 VPDU(Virtual pipeline data unit)에 기반하여 부호화 및 복호화가 수행되는 경우 바이패스 코딩을 위한 확률 초기화 값을 설정하는 방법을 설명한다. Figure 6 describes a method for setting a probability initialization value for bypass coding when encoding and decoding are performed based on a VPDU (Virtual pipeline data unit).

VPDU는 병렬 데이터 처리 단위로서 점차 코딩 트리 유닛(CTU)의 크기가 증가함에 따라 도입된 데이터 단위이다. 하나의 코딩 트리 유닛 내에서 복수의 VPDU를 정의하고, 복수의 VPDU를 병렬 처리함에 따라 하드웨어의 구현 복잡도 및 크기가 감소될 수 있다. 도 6의 작은 정사각형 블록은 VPDU을 의미하고, 2 x 2 의 VPDU를 포함하는 정사각형 블록(점선 모양의 블록)은 하나의 코딩 트리 유닛 블록을 의미한다. 이하, 도 5와 마찬가지로, 신택스 요소 A의 빈 A가 바이패스 코딩이 적용되고, 특정 값은 0임을 가정하여 실시 예가 설명된다.VPDU is a parallel data processing unit that was introduced as the size of the coding tree unit (CTU) gradually increased. By defining multiple VPDUs within one coding tree unit and processing multiple VPDUs in parallel, the implementation complexity and size of the hardware can be reduced. The small square block in Fig. 6 represents a VPDU, and a square block (a block shaped like a dotted line) containing 2 x 2 VPDUs represents one coding tree unit block. Hereinafter, as in Fig. 5, an embodiment will be described assuming that bypass coding is applied to empty A of syntax element A and that a specific value is 0.

일 실시 예에 따르면, 복호화 단에서 현재 VPDU의 해당 신택스 요소의 바이패스 코딩을 위한 확률 초기화 값은 이전 코딩 트리 유닛 블록의 대응하는 VPDU의 해당 신택스 요소의 확률을 기반으로 설정될 수 있다. 예를 들어, 두 번째 코딩 트리 유닛 블록 (610)의 첫 번째 VPDU (612)의 특정 신택스 요소의 확률 초기화 값은 첫 번째 코딩 트리 유닛 블록 (600)의 첫 번째 VPDU (602)의 대응하는 특정 신택스 요소의 확률을 기반으로 설정될 수 있다. 마찬가지로, 두 번째 코딩 트리 유닛 블록 (610)의 VPDU (614, 616, 618)의 특정 신택스 요소의 확률 초기화 값은 각각 첫 번째 코딩 트리 유닛 블록 (600)의 VPDU (614, 616, 618)의 특정 신택스 요소의 확률을 기반으로 설정될 수 있다.According to one embodiment, in the decoding stage, the probability initialization value for bypass coding of the corresponding syntax element of the current VPDU may be set based on the probability of the corresponding syntax element of the corresponding VPDU of the previous coding tree unit block. For example, the probability initialization value of a specific syntax element of the first VPDU (612) of the second coding tree unit block (610) may be set based on the probability of the corresponding specific syntax element of the first VPDU (602) of the first coding tree unit block (600). Similarly, the probability initialization values of the specific syntax elements of the VPDUs (614, 616, 618) of the second coding tree unit block (610) may be set based on the probability of the specific syntax elements of the VPDUs (614, 616, 618) of the first coding tree unit block (600), respectively.

이 때, 현재 코딩 트리 유닛 블록의 임의 위치의 VPDU의 특정 신택스 요소의 확률 초기화 값은 이전에 코딩된 적어도 하나의 코딩 트리 유닛 블록의 대응하는 임의 위치의 VPDU들의 특정 신택스 요소의 확률을 누적하여 결정할 수 있다. 이하, 수학식 2는 N 번째 코딩 트리 유닛 블록(Nth CTU)의 세 번째 VPDU(3rd VPDU)의 신택스 요소 A의 빈 A의 확률 초기화 값을 설정하는 식이다. 이 때, 확률 초기화 값은 이전에 코딩된 M개의 코딩 트리 유닛 블록을 사용한다. 여기서 N과 M은 N > M인 양의 정수이다.At this time, the probability initialization value of a specific syntax element of a VPDU at an arbitrary position of the current coding tree unit block can be determined by accumulating the probability of a specific syntax element of VPDUs at corresponding arbitrary positions of at least one coding tree unit block that was previously coded. Hereinafter, mathematical expression 2 is an expression for setting the probability initialization value of the empty A of the syntax element A of the third VPDU (3rd VPDU) of the Nth coding tree unit block (Nth CTU). At this time, the probability initialization value uses M coding tree unit blocks that were previously coded. Here, N and M are positive integers such that N > M.

[수학식 2][Equation 2]

수학식 2에 따르면, N 번째 코딩 트리 유닛 블록 이전에 부호화 또는 복호화된 M개의 코딩 트리 유닛 블록의 세 번째 VPDU의 신택스 요소가 이용된다. 수학식 2는 예시로서 세 번째 VPDU를 기준으로 설명할 뿐, 다른 VPDU에 대하여도 마찬가지로 적용될 수 있다.According to mathematical expression 2, the syntax element of the third VPDU of the M coding tree unit blocks encoded or decoded before the Nth coding tree unit block is used. Although mathematical expression 2 is explained based on the third VPDU as an example, it can be applied to other VPDUs as well.

일 실시 예에 따르면, 코딩 트리 유닛 블록 내의 모든 VPDU에 대하여 동일한 확률 초기화 값이 적용될 수 있다. 예를 들어, 확률 초기화 값은 이전에 부호화 또는 복호화된 1개 이상의 코딩 트리 유닛 블록으로부터 결정될 수 있다.In one embodiment, the same probability initialization value may be applied to all VPDUs within a coding tree unit block. For example, the probability initialization value may be determined from one or more previously encoded or decoded coding tree unit blocks.

일 실시 예에 따르면, 참조 픽처 구조 정보에 기초하여 특정 빈의 바이패스 코딩을 위한 확률 초기화 값이 설정될 수 있다. According to one embodiment, A probability initialization value for bypass coding of a specific bin can be set based on reference picture structure information.

도 7은 참조 픽처 구조에 따른 빈의 확률 초기화를 설명하기 위한 참조 픽처 구조를 나타낸다.Figure 7 shows a reference picture structure for explaining the probability initialization of bins according to the reference picture structure.

도 7에 따르면, 시간에 흐름에 따라 나열된 일련의 픽처들은 시간 순서와 다른 별도로 부호화 순서에 따라 부호화 및 복호화될 수 있다. 도 7은 임의 접근(Random access)에 해당하는 비디오 부호화 시나리오의 일 실시예에 따른 참조 픽처 구조를 나타낸다. 부호화 순서와 시간 순서를 상이하게 구성함으로써, 비디오 시퀀스의 임의 위치 접근의 편의성과 부호화 효율 향상을 도모할 수 있다.According to Fig. 7, a series of pictures arranged in chronological order can be encoded and decoded according to a separate encoding order different from the chronological order. Fig. 7 illustrates a reference picture structure according to one embodiment of a video encoding scenario corresponding to random access. By configuring the encoding order and the chronological order differently, the convenience of random location access in the video sequence and the encoding efficiency can be improved.

이때, 사람의 인지 시각 특성을 고려하여, 시간의 흐름에 따라 하나 혹은 그 이상의 시간적 레이어 (Temporal layer)가 구성될 수 있다. 그리고 각 시간적 레이어 별로 양자화 파라미터 (Quantization parameter, QP) 값을 상이하게 할당함으로써, 압축 성능을 향상시킬 수 있다. 따라서 각 픽처의 시간 순서 또는 시간적 레이어 별로 서로 다른 양자화 파라미터 값이 적용됨을 고려하여, 빈의 확률 초기화를 수행하는 방법이 설명된다. 도 7의 참조 픽처 구조는 하나의 예에 불과하며, 도 7과는 다른 임의의 참조 픽처 구조가 비디오 부호화 및 복호화에 적용될 수 있다.At this time, considering the human visual perception characteristics, one or more temporal layers can be configured according to the flow of time. And by assigning different quantization parameter (QP) values to each temporal layer, compression performance can be improved. Therefore, a method for performing probability initialization of bins is described, considering that different quantization parameter values are applied to the time order of each picture or to each temporal layer. The reference picture structure of Fig. 7 is only one example, and any reference picture structure different from Fig. 7 can be applied to video encoding and decoding.

도 7의 픽처들 (700 내지 780)의 좌측에 표시된 숫자는 픽처의 순서를 의미한다. 위의 숫자는 부호화 순서를 나타내며, 아래의 ""에 표시된 숫자는 디스플레이 순서를 의미하는 POC (Picture Order Counter)를 나타낸다. 그리고 도 7의 픽처들 간의 화살표는 소정의 픽처가 참조하는 픽처들을 나타낸다.The numbers displayed on the left side of the pictures (700 to 780) in FIG. 7 indicate the order of the pictures. The numbers above indicate the encoding order, and the numbers displayed in the "" below indicate the POC (Picture Order Counter), which indicates the display order. Furthermore, the arrows between the pictures in FIG. 7 indicate the pictures referenced by a given picture.

픽처 (700)은 IDR 또는 Intra 픽처로, 다른 픽처를 참조하지 않고 부호화 및 복호화된다. 그리고 픽처 (710)은 픽처 (700)만 참조하여 부호화 및 복호화된다. 그리고 픽처 (720)은 픽처 (700)과 픽처 (710)을 참조하여 부호화 및 복호화된다 나머지 픽처들 역시 화살표에 따라 참조되는 참조 픽처를 파악될 수 있다.Picture (700) is an IDR or Intra picture, and is encoded and decoded without reference to other pictures. Picture (710) is encoded and decoded only with reference to picture (700). Picture (720) is encoded and decoded with reference to picture (700) and picture (710). Reference pictures referenced by the remaining pictures can also be identified according to the arrows.

도 7의 픽처는 시간적 레이어로 구분될 수 있다. 시간적 레이어는 동일한 시간적 ID (Temporal ID)로 묶인 픽처의 집합을 의미한다. 시간적 레이어의 레벨이 증가할 경우, 프레임율이 각 레벨마다 두 배로 단계적으로 증가한다. 예를 들어, 픽처 (700, 710)은 시간적 레이어 레벨 0에 해당된다. 그리고 픽처 (720)은 시간적 레이어 레벨 1에 해당된다. 그리고 픽처 (730, 740)은 시간적 레이어 레벨 2에 해당된다. 그리고 픽처 (750, 760, 770, 780)은 시간적 레이어 레벨 3에 해당된다The pictures in Fig. 7 can be divided into temporal layers. A temporal layer refers to a set of pictures grouped by the same temporal ID. As the level of the temporal layer increases, the frame rate doubles stepwise for each level. For example, pictures (700, 710) correspond to temporal layer level 0. And picture (720) corresponds to temporal layer level 1. And pictures (730, 740) correspond to temporal layer level 2. And pictures (750, 760, 770, 780) correspond to temporal layer level 3.

일 실시 예에 따르면, 현재 픽처와 참조 픽처의 시간적 차이를 기반으로 바이패스 코딩의 빈 확률 초기화가 수행될 수 있다. 예를 들어, 현재 픽처와 소정의 참조 픽처 A의 시간적 거리 차이가 S 이하인 경우, 현재 픽처에서 빈 A의 확률 초기화 값이 계산될 수 있다. 여기서 S는 임의의 양의 정수이다.In one embodiment, the probability initialization of the bins for bypass coding may be performed based on the temporal difference between the current picture and a reference picture. For example, if the temporal distance difference between the current picture and a given reference picture A is less than or equal to S, the probability initialization value of bin A in the current picture may be calculated, where S is an arbitrary positive integer.

이하, S 값이 2임을 가정하여 상기 실시 예가 설명된다. 도 7에 의하면, 현재 픽처가 시간적 순서가 4인 픽처 (720)일 때, 현재 픽처 이전에 복원된 참조 픽처들은 시간적 순서가 0인 픽처 (700)와 시간적 순서가 8인 픽처 (710)이다. 이 때, 시간적 순서가 4인 현재 픽처 (720)와 시간적 순서가 0인 참조 픽처 (700)의 시간적 거리 차이와 시간적 순서가 4인 현재 픽처 (720)와 시간적 순서가 8인 참조 픽처 (710)의 시간적 거리 차이는 모두 4이다. 즉, 현재 픽처가 시간적 순서가 4인 픽처 (720)인 경우, 현재 픽처와 두 참조 픽처 사이의 시간적 거리가 2보다 크므로, 현재 픽처의 빈 A에 대한 확률 초기화가 수행되지 않는다.Hereinafter, the above embodiment is described assuming that the S value is 2. According to Fig. 7, when the current picture is a picture (720) whose temporal order is 4, the reference pictures restored before the current picture are a picture (700) whose temporal order is 0 and a picture (710) whose temporal order is 8. At this time, the temporal distance difference between the current picture (720) whose temporal order is 4 and the reference picture (700) whose temporal order is 0 and the temporal distance difference between the current picture (720) whose temporal order is 4 and the reference picture (710) whose temporal order is 8 are both 4. That is, when the current picture is a picture (720) whose temporal order is 4, the temporal distance between the current picture and the two reference pictures is greater than 2, so probability initialization for the empty A of the current picture is not performed.

현재 픽처가 시간적 순서가 1인 픽처 (750)일 때, 현재 픽처 이전에 복원된 참조 픽처들은 시간적 순서가 0인 픽처 (700)와 시간적 순서가 2인 픽처 (730)이다.When the current picture is a picture (750) with a temporal order of 1, the reference pictures restored before the current picture are a picture (700) with a temporal order of 0 and a picture (730) with a temporal order of 2.

이 때 현재 픽처와 두 참조 픽처 사이의 시간적 거리가 2보다 작으므로, 현재 픽처의 빈 A에 대한 확률 초기화가 수행될 수 있다.At this time, since the temporal distance between the current picture and the two reference pictures is less than 2, probability initialization for the empty A of the current picture can be performed.

참조 픽처와 현재 픽처의 시간적 거리에 기반하여 현재 픽처에서 빈 A의 확률 초기화가 수행됨이 결정되었을 때, 참조 픽처의 빈 A의 출현 확률에 기반하여, 현재 픽처의 빈 A의 초기 확률 값 계산이 수행될 수 있다.When it is determined that the probability initialization of bin A in the current picture is performed based on the temporal distance between the reference picture and the current picture, the initial probability value calculation of bin A in the current picture can be performed based on the appearance probability of bin A in the reference picture.

일 실시 예에 따르면, 현재 픽처가 가장 가까운 2개의 참조 픽처만 확률 초기화의 수행 여부 결정에 참조할 경우, 두 참조 픽처로부터 획득한 빈 A의 출현 확률에 기반하여, 현재 픽처의 빈 A의 확률 초기 값이 계산될 수 있다. 또는 두 참조 픽처 중 하나의 참조 픽처로부터 획득한 빈 A의 출현 확률에 기반하여, 현재 픽처의 빈 A의 확률 초기 값이 계산될 수 있다. 이 경우, 두 참조 픽처 중 어떤 참조 픽처가 참조되는지 여부는, 비트스트림으로부터 명시적으로 전송되는 확률 초기화 참조 픽처 정보에 기초하여 결정될 수 있다. 상기 확률 초기화 참조 픽처 정보는 픽처 또는 슬라이스 레벨에서 전송/파싱될 수 있다. 두 참조 픽처 중 어떤 참조 픽처가 참조되는지 여부는, 현재 참조 픽처의 시간적 레이어 레벨, 양자화 파라미터 값 등을 기반으로 암시적으로 결정될 수 있다.According to one embodiment, if the current picture refers only to the two closest reference pictures in determining whether to perform probability initialization, the initial probability value of bin A of the current picture may be calculated based on the appearance probability of bin A obtained from the two reference pictures. Alternatively, the initial probability value of bin A of the current picture may be calculated based on the appearance probability of bin A obtained from one of the two reference pictures. In this case, which of the two reference pictures is referenced may be determined based on probability initialization reference picture information explicitly transmitted from the bitstream. The probability initialization reference picture information may be transmitted/parsed at the picture or slice level. Which of the two reference pictures is referenced may be implicitly determined based on the temporal layer level, quantization parameter value, etc. of the current reference picture.

일 실시 예에 따르면, 현재 픽처와 참조 픽처의 양자화 파라미터 차이를 기반으로 바이패스 코딩이 적용되는 빈에 대한 확률 초기화가 수행될 수 있다. 예를 들어, 현재 픽처와 소정의 참조 픽처 A의 양자화 파라미터 차이가 T 이하인 경우, 현재 픽처에서 빈 A의 확률 초기화 값이 계산될 수 있다. 여기서 T는 임의의 양의 정수이다.According to one embodiment, probability initialization for a bin to which bypass coding is applied may be performed based on the difference in quantization parameters between the current picture and a reference picture. For example, if the difference in quantization parameters between the current picture and a given reference picture A is less than or equal to T, a probability initialization value for bin A in the current picture may be calculated, where T is an arbitrary positive integer.

이하, T 값이 1임을 가정하여 상기 실시 예가 설명된다. 도 7에 의하면, 현재 픽처가 시간적 순서가 4인 픽처 (720)일 때, 현재 픽처 이전에 복원된 참조 픽처들은 시간적 순서가 0인 픽처 (700)와 시간적 순서가 8인 픽처 (710)이다. 이 때, 시간적 순서가 4인 현재 픽처 (720)와 시간적 순서가 0인 참조 픽처 (700)의 양자화 파라미터 차이와 시간적 순서가 4인 현재 픽처 (720)와 시간적 순서가 8인 참조 픽처 (710)의 양자화 파라미터 차이는 각각 2와 1이다.Hereinafter, the above embodiment is described assuming that the T value is 1. According to Fig. 7, when the current picture is a picture (720) with a temporal order of 4, the reference pictures restored before the current picture are a picture (700) with a temporal order of 0 and a picture (710) with a temporal order of 8. At this time, the quantization parameter difference between the current picture (720) with a temporal order of 4 and the reference picture (700) with a temporal order of 0 and the quantization parameter difference between the current picture (720) with a temporal order of 4 and the reference picture (710) with a temporal order of 8 are 2 and 1, respectively.

일 실시 예에 따르면, 현재 픽처 (720)에 가장 인접한 두 개의 참조 픽처 중 적어도 하나의 참조 픽처에 대하여 양자화 파라미터 차이가 소정의 T 값보다 작다면, 현재 픽처에 대한 빈의 확률 초기화가 수행될 수 있다. 도 7의 예에 다르면, 현재 픽처 (720)와 시간적 순서가 8인 참조 픽처 (710)의 양자화 파라미터 차이가 1이므로, 현재 픽처 (720)에 대한 빈 A의 확률 초기화가 수행될 수 있다. 그리고 빈 A의 초기 확률 값은 양자화 파라미터 차이 조건을 만족하는 참조 픽처 (710)의 빈 A의 각 값의 출현 확률에 따라 결정될 수 있다.According to one embodiment, if the quantization parameter difference between at least one of the two reference pictures closest to the current picture (720) is less than a predetermined T value, probability initialization of a bin for the current picture may be performed. According to the example of FIG. 7, since the quantization parameter difference between the current picture (720) and the reference picture (710) having a temporal order of 8 is 1, probability initialization of a bin A for the current picture (720) may be performed. And the initial probability value of the bin A may be determined according to the appearance probability of each value of the bin A of the reference picture (710) that satisfies the quantization parameter difference condition.

일 실시 예에 따르면, 만약, 두 개의 참조 픽처 (700, 710) 모두 양자화 파라미터 차이 조건이 만족된다면, 현재 픽처 (720)에 대한 빈 A의 초기 확률 값은 두 개의 참조 픽처 (700, 710) 의 빈 A의 각 값의 출현 확률에 따라 결정될 수 있다. 그리고 만약 두 개의 참조 픽처 (700, 710) 모두 양자화 파라미터 차이 조건이 만족되지 않는다면, 현재 픽처에 대한 빈의 확률 초기화가 수행되지 않는다.According to one embodiment, if both reference pictures (700, 710) satisfy the quantization parameter difference condition, the initial probability value of bin A for the current picture (720) can be determined according to the appearance probability of each value of bin A of the two reference pictures (700, 710). And if both reference pictures (700, 710) do not satisfy the quantization parameter difference condition, the probability initialization of the bin for the current picture is not performed.

일 실시 예에 따르면, 참조 픽처와 현재 픽처의 양자화 파라미터 차이가 T 이하이더라도, 참조 픽처의 양자화 파라미터가 소정의 문턱 값 U 이상이면, 현재 픽처에 대한 빈의 확률 초기화에 있어서, 해당 참조 픽처의 빈의 출현 확률은 고려되지 않을 수 있다. 일정 양자화 파라미터 이상의 참조 픽처는 데이터 손실이 크기 때문에, 해당 참조 픽처로부터 비롯된 빈의 출현 확률은 신뢰성이 낮고, 노이즈에 가깝기 때문이다. 여기서 문턱 값 U 는 임의의 양의 정수이다.According to one embodiment, even if the difference in quantization parameters between a reference picture and a current picture is less than or equal to T, if the quantization parameter of the reference picture is greater than or equal to a predetermined threshold value U, the appearance probability of the bin of the reference picture may not be considered in initializing the probability of the bin for the current picture. This is because reference pictures with a quantization parameter greater than a predetermined threshold value have a large data loss, and thus the appearance probability of the bin derived from the reference picture is unreliable and close to noise. Here, the threshold value U is an arbitrary positive integer.

일 실시 예에 따르면, GOP(Group of picture)의 참조 구조에 따라 바이패스 코딩의 빈 확률 초기화 적용 여부가 판단될 수 있다. 본 개시에서, 개방 GOP (Open GOP)는 이전 GOP를 참조할 수 있는 GOP를 의미하며, 폐쇄 GOP (Close GOP)는 이전 GOP를 참조할 수 없는 GOP를 의미한다. 현재 GOP가 개방 GOP 인 경우, 현재 픽처와 참조 픽처의 시간적 차이에 기반한 빈 확률 초기화 여부 결정 방법 또는 현재 픽처와 참조 픽처의 양자화 파라미터 차이에 기반한 빈 확률 초기화 여부 결정 방법이 현재 픽처에 대하여 수행될 수 있다. 반면, 현재 GOP가 폐쇄 GOP 인 경우, 상기 설명된 두 빈 확률 초기화 여부 결정 방법이 현재 픽처에 적용되지 않을 수 있다.According to one embodiment, whether to apply empty probability initialization of bypass coding may be determined based on the reference structure of a Group of Pictures (GOP). In the present disclosure, an open GOP refers to a GOP that can refer to a previous GOP, and a closed GOP refers to a GOP that cannot refer to a previous GOP. If the current GOP is an open GOP, a method for determining whether to initialize empty probability based on a temporal difference between the current picture and a reference picture or a method for determining whether to initialize empty probability based on a difference in quantization parameters between the current picture and the reference picture may be performed on the current picture. On the other hand, if the current GOP is a closed GOP, the two methods for determining whether to initialize empty probability described above may not be applied to the current picture.

일 실시 예에 따르면, 현재 픽처가 비 참조 픽처(Non-reference picture)인 경우, 버퍼 관리 및 참조 의존성 등의 문제로 인하여, 상기 설명된 두 빈 확률 초기화 여부 결정 방법이 현재 픽처에 적용되지 않을 수 있다.According to one embodiment, if the current picture is a non-reference picture, the two methods for determining whether to initialize the empty probability described above may not be applied to the current picture due to issues such as buffer management and reference dependency.

일 실시 예에 따르면, 참조 블록 정보를 기반으로 특정 빈의 바이패스 코딩을 위한 확률 초기화 값이 설정될 수 있다.According to one embodiment, a probability initialization value for bypass coding of a specific bin can be set based on reference block information.

도 8은 참조 블록 정보에 기반한 확률 초기화 값 설정 방법을 설명하기 위한 현재 블록 (800)의 화면 간 예측의 일 예를 도시한다.FIG. 8 illustrates an example of inter-screen prediction of a current block (800) to explain a method for setting a probability initialization value based on reference block information.

일 실시 예에 따르면, 현재 블록 (800)의 대응하는 참조 블록 (810)에 대하여 파싱된 소정의 빈에 기반하여, 소정의 빈의 출현 확률이 결정된다. 그리고 상기 소정의 빈의 출현 확률에 따라, 현재 블록 (800)에 적용되는 상기 소정의 빈의 확률 초기 값이 계산될 수 있다.According to one embodiment, based on a given bin parsed for a corresponding reference block (810) of a current block (800), the probability of occurrence of the given bin is determined. And, based on the probability of occurrence of the given bin, an initial probability value of the given bin applied to the current block (800) can be calculated.

도 9은 참조 블록 정보에 기반한 확률 초기화 값 설정 방법을 설명하기 위한 현재 블록 (900)의 화면 간 예측의 일 예를 도시한다.FIG. 9 illustrates an example of inter-screen prediction of a current block (900) to explain a method for setting a probability initialization value based on reference block information.

일 실시 예에 따르면, 참조 블록 (910) 뿐만 아니라, 참조 블록 (910)의 주변 영역을 포함한 확률 발생 빈도 수집 영역(Collection area for probability occurrence frequency) (920)에 대하여 파싱된 소정의 빈에 기반하여, 소정의 빈의 출현 확률이 결정될 수 있다. 그리고 상기 소정의 빈의 출현 확률에 따라, 현재 블록 (900)에 적용되는 상기 소정의 빈의 확률 초기 값이 계산될 수 있다.According to one embodiment, based on a parsed predetermined bin for a collection area for probability occurrence frequency (920) including not only the reference block (910) but also the surrounding area of the reference block (910), the occurrence probability of the predetermined bin can be determined. Then, based on the occurrence probability of the predetermined bin, an initial probability value of the predetermined bin applied to the current block (900) can be calculated.

일 실시 예에 따르면, 상기 확률 발생 빈도 수집 영역 (920)의 크기는 임의의 형태를 가질 수 있다. 일 예로, 상기 확률 발생 빈도 수집 영역 (920)은 참조 블록의 경계로부터 U 샘플 거리 내에 위치한 샘플들을 포함하도록 설정될 수 있다. 이 때, 현재 블록 (900)의 크기가 MxN인 경우, 상기 확률 발생 빈도 수집 영역 (920)의 크기는 (M+2U)x(N+2U)가 될 수 있다.According to one embodiment, the size of the probability occurrence frequency collection area (920) may have any shape. For example, the probability occurrence frequency collection area (920) may be set to include samples located within a distance of U samples from the boundary of the reference block. In this case, when the size of the current block (900) is MxN, the size of the probability occurrence frequency collection area (920) may be (M+2U)x(N+2U).

도 10은 본 개시의 일 실시 예에 따른 영상 복호화 방법을 나타내는 흐름도이다. 도 10의 영상 복호화 방법은 영상 복호화 장치에 의해 수행될 수 있다.FIG. 10 is a flowchart illustrating an image decoding method according to an embodiment of the present disclosure. The image decoding method of FIG. 10 can be performed by an image decoding device.

단계 1010에서. 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부가 결정된다.In step 1010, in the bypass coding of the bin of the syntax element being parsed for the current data unit, it is determined whether the current occurrence probability for a given value of the bin is initialized.

일 실시 예에 따르면, 상기 현재 데이터 단위는 타일 또는 슬라이스일 수 있다. 또는 상기 현재 데이터 단위는 VPDU(Virtual pipeline data unit)일 수 있다. 또는 상기 현재 데이터 단위는 픽처 또는 코딩 트리 유닛 등 다양한 레벨의 데이터 단위일 수 있다.According to one embodiment, the current data unit may be a tile or a slice. Alternatively, the current data unit may be a Virtual Pipeline Data Unit (VPDU). Alternatively, the current data unit may be a data unit of various levels, such as a picture or a coding tree unit.

일 실시 예에 따르면, 하이 레벨 신택스로부터, 빈 확률 초기화 사용 여부 정보가 획득될 수 있다. 그리고 상기 빈 확률 초기화 사용 여부 정보에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다.According to one embodiment, information on whether to use empty probability initialization can be obtained from the high-level syntax. Based on the information on whether to use empty probability initialization, it can be determined whether the current occurrence probability is initialized.

일 실시 예에 따르면, 하이 레벨 신택스로부터, 빈 확률 초기화 방법 정보를 획득될 수 있다. 그리고 상기 빈 확률 초기화 방법 정보가 나타내는 빈 확률 초기화 방법에 따라, 상기 빈의 소정의 값에 대한 참조 출현 확률이 획득될 수 있다.According to one embodiment, information on a method for initializing a bin probability can be obtained from a high-level syntax. Furthermore, based on the method for initializing a bin probability indicated by the information on the method for initializing a bin probability, a reference occurrence probability for a given value of the bin can be obtained.

일 실시 예에 따르면, 상기 현재 데이터 단위의 현재 픽처가 참조하는 참조 픽처에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다.According to one embodiment, it can be determined whether the current appearance probability is initialized based on a reference picture referenced by the current picture of the current data unit.

일 실시 예에 따르면, 상기 현재 픽처와 상기 참조 픽처의 시간적 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다. 상기 시간적 차이는 상기 현재 픽처와 상기 참조 픽처의 POC (Picture Order Counter)이며, 상기 POC는 디스플레이 순서에 따라 픽처에 부여된 번호이다.According to one embodiment, whether the current appearance probability is initialized can be determined based on the temporal difference between the current picture and the reference picture. The temporal difference is a Picture Order Counter (POC) of the current picture and the reference picture, and the POC is a number assigned to the picture according to the display order.

일 실시 예에 따르면, 상기 현재 픽처와 상기 참조 픽처의 양자화 파라미터 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다.According to one embodiment, it can be determined whether the current appearance probability is initialized based on a difference in quantization parameters of the current picture and the reference picture.

일 실시 예에 따르면, 상기 현재 픽처가 참조하는 참조 픽처의 양자화 파라미터가 소정의 문턱 값(threshold)보다 큰지 여부에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다.According to one embodiment, it may be determined whether the current appearance probability is initialized based on whether a quantization parameter of a reference picture referenced by the current picture is greater than a predetermined threshold.

일 실시 예에 따르면, 상기 현재 데이터 단위의 현재 픽처가 포함된 GOP (Group of Picture)가 개방 GOP (Open GOP) 또는 폐쇄 GOP (Close GOP)인지에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정될 수 있다.According to one embodiment, it may be determined whether the current occurrence probability is initialized based on whether the GOP (Group of Pictures) containing the current picture of the current data unit is an open GOP or a closed GOP.

단계 1020에서. 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률이 획득된다.In step 1020, corresponding to the determination that the current occurrence probability is initialized, a reference occurrence probability for a given value of the bin is obtained from a reference data unit decrypted before the current data unit.

일 실시 예에 따르면, 상기 참조 데이터 단위는, 상기 현재 데이터 단위의 복호화 순서에 따라 바로 이전에 복호화된 데이터 단위일 수 있다. 또한 상기 참조 데이터 단위는, 상기 현재 데이터 단위가 상기 현재 픽처의 첫 번째 데이터 단위일 때, 상기 현재 픽처 이전에 복호화된 참조 픽처의 마지막 데이터 단위일 수 있다.According to one embodiment, the reference data unit may be a data unit that was decoded immediately before the current data unit in the decoding order of the current data unit. In addition, the reference data unit may be the last data unit of a reference picture decoded before the current picture when the current data unit is the first data unit of the current picture.

단계 1030에서. 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률이 초기화된다.At step 1030, based on the above reference appearance probability, the current appearance probability is initialized.

한편, 도 10에서 설명한 단계들은 영상 부호화 방법에서도 동일하게 수행될 수 있다. 또한, 도 10에서 설명한 단계를 포함하는 영상 부호화 방법에 의해 비트스트림이 생성될 수 있다. 상기 비트스트림은 비 일시적 컴퓨터 판독가능한 기록매체에 저장될 수 있으며, 또한, 전송(또는 스트리밍)될 수 있다.Meanwhile, the steps described in FIG. 10 can be performed in the same manner in an image encoding method. Furthermore, a bitstream can be generated by an image encoding method including the steps described in FIG. 10. The bitstream can be stored on a non-transitory computer-readable recording medium and can also be transmitted (or streamed).

도 11은 본 개시에 따른 실시예가 적용될 수 있는 컨텐츠 스트리밍 시스템을 예시적으로 나타내는 도면이다.FIG. 11 is a diagram exemplifying a content streaming system to which an embodiment according to the present disclosure can be applied.

도 11에 도시된 바와 같이, 본 개시의 실시예가 적용된 컨텐츠 스트리밍 시스템은 크게 인코딩 서버, 스트리밍 서버, 웹 서버, 미디어 저장소, 사용자 장치 및 멀티미디어 입력 장치를 포함할 수 있다.As illustrated in FIG. 11, a content streaming system to which an embodiment of the present disclosure is applied may largely include an encoding server, a streaming server, a web server, a media storage, a user device, and a multimedia input device.

상기 인코딩 서버는 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들로부터 입력된 컨텐츠를 디지털 데이터로 압축하여 비트스트림을 생성하고 이를 상기 스트리밍 서버로 전송하는 역할을 한다. 다른 예로, 스마트폰, 카메라, CCTV 등과 같은 멀티미디어 입력 장치들이 비트스트림을 직접 생성하는 경우, 상기 인코딩 서버는 생략될 수도 있다.The encoding server compresses content input from multimedia input devices such as smartphones, cameras, and CCTVs into digital data, generates a bitstream, and transmits it to the streaming server. Alternatively, if multimedia input devices such as smartphones, cameras, and CCTVs directly generate bitstreams, the encoding server may be omitted.

상기 비트스트림은 본 개시의 실시예가 적용된 영상 부호화 방법 및/또는 영상 부호화 장치에 의해 생성될 수 있고, 상기 스트리밍 서버는 상기 비트스트림을 전송 또는 수신하는 과정에서 일시적으로 상기 비트스트림을 저장할 수 있다.The above bitstream can be generated by an image encoding method and/or an image encoding device to which an embodiment of the present disclosure is applied, and the streaming server can temporarily store the bitstream during the process of transmitting or receiving the bitstream.

상기 스트리밍 서버는 웹 서버를 통한 사용자 요청에 기반하여 멀티미디어 데이터를 사용자 장치에 전송하고, 상기 웹 서버는 사용자에게 어떠한 서비스가 있는지를 알려주는 매개체 역할을 할 수 있다. 사용자가 상기 웹 서버에 원하는 서비스를 요청하면, 상기 웹 서버는 이를 스트리밍 서버에 전달하고, 상기 스트리밍 서버는 사용자에게 멀티미디어 데이터를 전송할 수 있다. 이때, 상기 컨텐츠 스트리밍 시스템은 별도의 제어 서버를 포함할 수 있고, 이 경우 상기 제어 서버는 상기 컨텐츠 스트리밍 시스템 내 각 장치 간 명령/응답을 제어하는 역할을 수행할 수 있다.The streaming server transmits multimedia data to a user device based on a user request via a web server, and the web server can act as an intermediary to inform the user of available services. When a user requests a desired service from the web server, the web server transmits the request to the streaming server, and the streaming server can transmit multimedia data to the user. At this time, the content streaming system may include a separate control server, and in this case, the control server may control commands/responses between each device within the content streaming system.

상기 스트리밍 서버는 미디어 저장소 및/또는 인코딩 서버로부터 컨텐츠를 수신할 수 있다. 예를 들어, 상기 인코딩 서버로부터 컨텐츠를 수신하는 경우, 상기 컨텐츠를 실시간으로 수신할 수 있다. 이 경우, 원활한 스트리밍 서비스를 제공하기 위하여 상기 스트리밍 서버는 상기 비트스트림을 일정 시간동안 저장할 수 있다.The streaming server can receive content from a media repository and/or encoding server. For example, when receiving content from the encoding server, the content can be received in real time. In this case, to provide a smooth streaming service, the streaming server can store the bitstream for a certain period of time.

상기 사용자 장치의 예로는, 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)), 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등이 있을 수 있다.Examples of the user devices may include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation devices, slate PCs, tablet PCs, ultrabooks, wearable devices (e.g., smartwatches, smart glasses, HMDs), digital TVs, desktop computers, digital signage, etc.

상기 컨텐츠 스트리밍 시스템 내 각 서버들은 분산 서버로 운영될 수 있으며, 이 경우 각 서버에서 수신하는 데이터는 분산 처리될 수 있다.Each server within the above content streaming system can be operated as a distributed server, in which case data received from each server can be processed in a distributed manner.

상기의 실시예들은 부호화 장치 및 복호화 장치에서 동일한 방법 또는 상응하는 방법으로 수행될 수 있다. 또한, 상기 실시예들 중 적어도 하나 혹은 적어도 하나의 조합을 이용해서 영상을 부호화/복호화할 수 있다.The above embodiments can be performed in the same or corresponding manner in an encoding device and a decoding device. In addition, an image can be encoded/decoded using at least one or a combination of at least one of the above embodiments.

상기 실시예들이 적용되는 순서는 부호화 장치와 복호화 장치에서 상이할 수 있다. 또는, 상기 실시예들이 적용되는 순서는 부호화 장치와 복호화 장치에서 동일할 수 있다.The order in which the above embodiments are applied may be different in the encoding device and the decoding device. Alternatively, the order in which the above embodiments are applied may be the same in the encoding device and the decoding device.

상기 실시예들은 휘도 및 색차 신호 각각에 대하여 수행될 수 있다. 또는, 휘도 및 색차 신호에 대한 상기 실시예들이 동일하게 수행될 수 있다.The above embodiments can be performed for each of the luminance and chrominance signals. Alternatively, the above embodiments can be performed identically for the luminance and chrominance signals.

상기 실시예들에서, 방법들은 일련의 단계 또는 유닛으로서 순서도를 기초로 설명되고 있으나, 본 개시는 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 개시의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다. In the above embodiments, the methods are described based on a flowchart as a series of steps or units. However, the present disclosure is not limited to the order of the steps, and some steps may occur in a different order or simultaneously with other steps described above. Furthermore, those skilled in the art will understand that the steps depicted in the flowchart are not exclusive, and that other steps may be included, or one or more steps in the flowchart may be deleted without affecting the scope of the present disclosure.

상기 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 개시를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The above embodiments may be implemented in the form of program commands that can be executed by various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, etc., either singly or in combination. The program commands recorded on the computer-readable recording medium may be those specifically designed and configured for the present disclosure, or may be known and usable by those skilled in the art of computer software.

상기 실시예에 따른 부호화 방법에 의해 생성된 비트스트림은 비 일시적인 컴퓨터 판독 가능한 기록 매체에 저장될 수 있다. 또한, 상기 비 일시적인 컴퓨터 판독 가능한 기록 매체에 저장되는 비트스트림은 상기 실시예에 따른 복호화 방법에 의해 복호화될 수 있다. The bitstream generated by the encoding method according to the above embodiment can be stored in a non-transitory computer-readable recording medium. In addition, the bitstream stored in the non-transitory computer-readable recording medium can be decoded by the decoding method according to the above embodiment.

여기서, 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 개시에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Here, examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and hardware devices specifically configured to store and execute program instructions such as ROMs, RAMs, and flash memories. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices may be configured to operate as one or more software modules to perform processing according to the present disclosure, and vice versa.

이상에서 본 개시가 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 개시의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 개시가 상기 실시예들에 한정되는 것은 아니며, 본 개시가 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.Although the present disclosure has been described above with specific details such as specific components and limited examples and drawings, these are provided only to help a more general understanding of the present disclosure, and the present disclosure is not limited to the above examples, and a person having ordinary knowledge in the technical field to which the present disclosure belongs can make various modifications and variations from this description.

따라서, 본 개시의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 개시의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present disclosure should not be limited to the embodiments described above, and all modifications that are equivalent or equivalent to the following claims as well as the claims are considered to fall within the scope of the spirit of the present disclosure.

본 개시는 영상을 부호화/복호화하는 장치 및 비트스트림을 저장한 기록 매체에 이용될 수 있다.The present disclosure can be used in a device for encoding/decoding an image and a recording medium storing a bitstream.

Claims (15)

현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 디코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계;In bypass decoding of a bin of a syntax element being parsed for the current data unit, a step of determining whether the current occurrence probability for a given value of the bin is initialized; 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계; 및In response to the current occurrence probability being determined to be initialized, a step of obtaining a reference occurrence probability for a predetermined value of the bin from a reference data unit decrypted before the current data unit; and 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 영상 복호화 방법.An image decoding method comprising a step of initializing the current appearance probability based on the above reference appearance probability. 제1항에 있어서,In the first paragraph, 상기 현재 데이터 단위는 타일 또는 슬라이스인 것을 특징으로 하는 영상 복호화 방법.An image decoding method, characterized in that the current data unit is a tile or a slice. 제1항에 있어서,In the first paragraph, 상기 현재 데이터 단위는 VPDU(Virtual pipeline data unit)인 것을 특징으로 하는 영상 복호화 방법.A video decoding method characterized in that the current data unit is a VPDU (Virtual pipeline data unit). 제1항에 있어서,In the first paragraph, 상기 참조 데이터 단위는,The above reference data unit is, 상기 현재 데이터 단위의 복호화 순서에 따라 바로 이전에 복호화된 데이터 단위인 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that the current data unit is a data unit that was decoded immediately before in the decoding order of the current data unit. 제1항에 있어서,In the first paragraph, 상기 참조 데이터 단위는,The above reference data unit is, 상기 현재 데이터 단위가 상기 현재 픽처의 첫 번째 데이터 단위일 때, 상기 현재 픽처 이전에 복호화된 참조 픽처의 마지막 데이터 단위인 것을 특징으로 하는 영상 복호화 방법.A video decoding method, characterized in that when the current data unit is the first data unit of the current picture, it is the last data unit of a reference picture decoded before the current picture. 제1항에 있어서,In the first paragraph, 상기 영상 복호화 방법은,The above video decryption method is, 하이 레벨 신택스로부터, 빈 확률 초기화 사용 여부 정보를 획득하는 단계를 더 포함하고,Further comprising a step of obtaining information on whether to use empty probability initialization from the high level syntax, 상기 빈 확률 초기화 사용 여부 정보에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that whether the current appearance probability is initialized is determined based on information on whether the above empty probability initialization is used. 제1항에 있어서,In the first paragraph, 상기 영상 복호화 방법은,The above video decryption method is, 하이 레벨 신택스로부터, 빈 확률 초기화 방법 정보를 획득하는 단계를 더 포함하고,Further comprising a step of obtaining information on how to initialize the empty probability from the high level syntax, 상기 빈 확률 초기화 방법 정보가 나타내는 빈 확률 초기화 방법에 따라, 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 방법이 결정되는 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that a method for obtaining a reference appearance probability for a predetermined value of the bin is determined according to the bin probability initialization method indicated by the above bin probability initialization method information. 제1항에 있어서,In the first paragraph, 상기 현재 데이터 단위의 현재 픽처가 참조하는 참조 픽처에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that it is determined whether the current appearance probability is initialized based on a reference picture referenced by the current picture of the current data unit. 제8항에 있어서,In paragraph 8, 상기 현재 픽처와 상기 참조 픽처의 시간적 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되고,Based on the temporal difference between the current picture and the reference picture, it is determined whether the current appearance probability is initialized, 상기 시간적 차이는 상기 현재 픽처와 상기 참조 픽처의 POC (Picture Order Counter)이며, 상기 POC는 디스플레이 순서에 따라 픽처에 부여된 번호인 것을 특징으로 하는 영상 복호화 방법.A video decoding method, characterized in that the above-mentioned temporal difference is a POC (Picture Order Counter) of the current picture and the reference picture, and the POC is a number assigned to the picture according to the display order. 제8항에 있어서,In paragraph 8, 상기 현재 픽처와 상기 참조 픽처의 양자화 파라미터 차이에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that it is determined whether the current appearance probability is initialized based on the difference in quantization parameters of the current picture and the reference picture. 제8항에 있어서,In paragraph 8, 상기 현재 픽처가 참조하는 참조 픽처의 양자화 파라미터가 소정의 문턱 값(threshold)보다 큰지 여부에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 하는 영상 복호화 방법.An image decoding method characterized in that it is determined whether the current appearance probability is initialized based on whether the quantization parameter of the reference picture referenced by the current picture is greater than a predetermined threshold value. 제1항에 있어서,In the first paragraph, 상기 현재 데이터 단위의 현재 픽처가 포함된 GOP (Group of Picture)가 개방 GOP (Open GOP) 또는 폐쇄 GOP (Close GOP)인지에 기초하여, 상기 현재 출현 확률이 초기화되는지 여부가 결정되는 것을 특징으로 하는 영상 복호화 방법.A video decoding method characterized in that it is determined whether the current appearance probability is initialized based on whether the GOP (Group of Picture) including the current picture of the current data unit is an open GOP or a closed GOP. 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계;In bypass coding of a bin of a syntax element being parsed for the current data unit, a step of determining whether the current occurrence probability for a given value of the bin is initialized; 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계; 및In response to the current occurrence probability being determined to be initialized, a step of obtaining a reference occurrence probability for a predetermined value of the bin from a reference data unit decrypted before the current data unit; and 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 영상 부호화 방법.An image encoding method comprising a step of initializing the current appearance probability based on the above reference appearance probability. 영상 부호화 방법에 의해 생성된 비트스트림을 저장하는 비 일시적 컴퓨터 판독가능한 기록 매체에 있어서,In a non-transitory computer-readable recording medium storing a bitstream generated by a video encoding method, 상기 영상 부호화 방법은,The above image encoding method is, 현재 블록의 참조 후보 블록을 결정하는 단계;A step of determining a reference candidate block of the current block; 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계;In bypass coding of a bin of a syntax element being parsed for the current data unit, a step of determining whether the current occurrence probability for a given value of the bin is initialized; 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계; 및In response to the current occurrence probability being determined to be initialized, a step of obtaining a reference occurrence probability for a predetermined value of the bin from a reference data unit decrypted before the current data unit; and 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 것을 특징으로 하는, 비 일시적 컴퓨터 판독가능한 기록 매체.A non-transitory computer-readable recording medium, characterized in that it comprises a step of initializing the current appearance probability based on the above reference appearance probability. 영상 부호화 방법에 의하여 생성된 비트스트림을 전송하는 비트스트림 전송 방법에 있어서,In a bitstream transmission method for transmitting a bitstream generated by a video encoding method, 상기 영상 부호화 방법에 기초하여 영상을 부호화하는 단계; 및A step of encoding an image based on the above image encoding method; and 상기 부호화된 영상이 포함된 비트스트림을 전송하는 단계를 포함하고,A step of transmitting a bitstream including the encoded image, 상기 영상 부호화 방법은,The above image encoding method is, 현재 데이터 단위에 대하여 파싱되는 신택스 요소의 빈의 바이패스 코딩에 있어서, 상기 빈의 소정의 값에 대한 현재 출현 확률이 초기화되는지 여부를 결정하는 단계;In bypass coding of a bin of a syntax element being parsed for the current data unit, a step of determining whether the current occurrence probability for a given value of the bin is initialized; 상기 현재 출현 확률이 초기화됨으로 결정됨에 대응하여, 상기 현재 데이터 단위 이전에 복호화된 참조 데이터 단위로부터 상기 빈의 소정의 값에 대한 참조 출현 확률을 획득하는 단계; 및In response to the current occurrence probability being determined to be initialized, a step of obtaining a reference occurrence probability for a predetermined value of the bin from a reference data unit decrypted before the current data unit; and 상기 참조 출현 확률에 기초하여, 상기 현재 출현 확률을 초기화하는 단계를 포함하는 것을 특징으로 하는, 전송 방법.A transmission method, characterized in that it includes a step of initializing the current appearance probability based on the above reference appearance probability.
PCT/KR2025/095392 2024-06-28 2025-06-12 Image encoding/decoding method, device, and recording medium storing bitstream Pending WO2026005571A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20240085572 2024-06-28
KR10-2024-0085572 2024-06-28

Publications (1)

Publication Number Publication Date
WO2026005571A1 true WO2026005571A1 (en) 2026-01-02

Family

ID=98222544

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2025/095392 Pending WO2026005571A1 (en) 2024-06-28 2025-06-12 Image encoding/decoding method, device, and recording medium storing bitstream

Country Status (1)

Country Link
WO (1) WO2026005571A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170078670A (en) * 2014-11-04 2017-07-07 삼성전자주식회사 Probabilistic Update Method for Binary Arithmetic Coding / Decoding and Entropy Coding / Decoding Device Using It
KR20210133976A (en) * 2019-03-12 2021-11-08 퀄컴 인코포레이티드 Probability initialization for video coding
KR20210139398A (en) * 2019-03-18 2021-11-22 블랙베리 리미티드 Method and device for processing equal probability symbols in entropy coding
KR20230156110A (en) * 2022-02-07 2023-11-13 텐센트 아메리카 엘엘씨 Adaptive context-based adaptive binary arithmetic coding (CABAC) initial state selection from coded pictures
KR102639864B1 (en) * 2015-05-29 2024-02-22 퀄컴 인코포레이티드 Advanced arithmetic coder

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170078670A (en) * 2014-11-04 2017-07-07 삼성전자주식회사 Probabilistic Update Method for Binary Arithmetic Coding / Decoding and Entropy Coding / Decoding Device Using It
KR102639864B1 (en) * 2015-05-29 2024-02-22 퀄컴 인코포레이티드 Advanced arithmetic coder
KR20210133976A (en) * 2019-03-12 2021-11-08 퀄컴 인코포레이티드 Probability initialization for video coding
KR20210139398A (en) * 2019-03-18 2021-11-22 블랙베리 리미티드 Method and device for processing equal probability symbols in entropy coding
KR20230156110A (en) * 2022-02-07 2023-11-13 텐센트 아메리카 엘엘씨 Adaptive context-based adaptive binary arithmetic coding (CABAC) initial state selection from coded pictures

Similar Documents

Publication Publication Date Title
WO2020071830A1 (en) Image coding method using history-based motion information, and device therefor
WO2023200206A1 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
WO2023239147A1 (en) Image encoding/decoding method, device, and recording medium in which bitstream is stored
WO2023200214A1 (en) Image encoding/decoding method and apparatus, and recording medium storing bitstream
WO2026005571A1 (en) Image encoding/decoding method, device, and recording medium storing bitstream
WO2025192990A1 (en) Method and device for image encoding/decoding and recording medium having bitstreams stored therein
WO2024181820A1 (en) Image encoding/decoding method and device, and recording medium onto which bitstream is stored
WO2024177434A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2025037911A1 (en) Image encoding/decoding method and device, and recording medium on which bitstream is stored
WO2025009816A1 (en) Image encoding/decoding method and device, and recording medium for storing bitstream
WO2026019073A1 (en) Image encoding/decoding method and apparatus, and recording medium having bitstream stored therein
WO2024210624A1 (en) Image encoding/decoding method, device, and recording medium storing bitstreams
WO2025178438A1 (en) Image encoding/decoding method and device, and recording medium having bitstream stored therein
WO2025135613A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2024210648A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2024253465A1 (en) Image encoding/decoding method and apparatus, and recording medium for storing bitstream
WO2025005615A1 (en) Image encoding/decoding method and device, and recording medium for storing bitstream
WO2024258110A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2024005456A1 (en) Image encoding/decoding method and device, and recording medium on which bitstream is stored
WO2026019034A1 (en) Image encoding/decoding method and apparatus, and recording medium on which bitstream is stored
WO2024215069A2 (en) Image encoding/decoding method, device, and recording medium for storing bitstream
WO2024248598A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream
WO2024262870A1 (en) Image encoding/decoding method, device, and recording medium storing bitstream
WO2023249353A1 (en) Image encoding/decoding method and apparatus, and recording medium having bitstream stored therein
WO2025110783A1 (en) Image encoding/decoding method and device, and recording medium storing bitstream

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 25826987

Country of ref document: EP

Kind code of ref document: A1