WO2011073559A1 - Device and method for determining an acceptability score for zapping time - Google Patents
Device and method for determining an acceptability score for zapping time Download PDFInfo
- Publication number
- WO2011073559A1 WO2011073559A1 PCT/FR2010/052697 FR2010052697W WO2011073559A1 WO 2011073559 A1 WO2011073559 A1 WO 2011073559A1 FR 2010052697 W FR2010052697 W FR 2010052697W WO 2011073559 A1 WO2011073559 A1 WO 2011073559A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- zapping
- detection
- information
- acceptability
- time
- Prior art date
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/004—Diagnosis, testing or measuring for television systems or their details for digital television systems
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/04—Diagnosis, testing or measuring for television systems or their details for receivers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/438—Interfacing the downstream path of the transmission network originating from a server, e.g. retrieving encoded video stream packets from an IP network
- H04N21/4383—Accessing a communication channel
- H04N21/4384—Accessing a communication channel involving operations to reduce the access time, e.g. fast-tuning for reducing channel switching latency
Definitions
- the present invention relates to a method for determining a rating of acceptability of zapping time and quality of service measurement (QoS) associated with this zapping time.
- QoS quality of service measurement
- the invention is concerned here with a measurement of perceived quality or quality of experience (QoE) by the users on the zapping action.
- the invention also relates to a device for determining an acceptability score capable of measuring the acceptability of the zapping time in audio / video devices.
- Such determination or control makes it possible to evaluate the various audio / video systems such as set-top boxes or other broadcasters of audiovisual content.
- the invention also relates to an innovative parametric model for use in such a method of determining a note of acceptability of the zapping time.
- MOSp An average score based on a quality scale called MOSp of acceptability scores called MOSp (for "Mean Opinion Score Prediction") comes from the models so applied.
- the quality scores thus defined do not exactly reflect the acceptability of the user to different situations that can be proposed between the first and second display screens.
- the invention improves the situation.
- the invention relates to a method for determining a rating of acceptability of a zapping time from a measurement of the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action.
- the method is such that it comprises the following steps:
- the acceptability score is determined by taking into account information on the waiting content that can vary this rating with respect to a determination based solely on the zapping time.
- the detection of displayed information comprises one or more detection steps of the following group:
- it further comprises a measurement of the display times between different detected information, the measured times being used for the selection of the parametric model.
- the parametric models are determined by learning, from zapping time measurements and information on the waiting contents.
- the parametric models are therefore adapted to the waiting contents that can be displayed.
- the invention also relates to a parametric model of acceptability of the zapping time intended to be used in a method of determining a zapping time acceptability score, determined from parameters for measuring the zapping time between a first audiovisual scene and a second audiovisual scene.
- This model is such that it is further determined from information on a waiting content displayed between the first and the second scene.
- This type of parametric model unlike existing models, takes into account wait-content information. Different parametric models can thus be determined and stored for use in a determination method as described above. In a particular embodiment, the parametric models take into account it is further determined from measured display times between different displayed information of the waiting content.
- the invention relates to a device for determining a note of acceptability of the zapping time comprising a module for measuring the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action.
- the device is such that it further comprises a module for obtaining at least one information on the waiting content displayed between the first and the second audiovisual scene for determining the acceptability score of the zapping time.
- Such a decoder can be integrated in a lounge decoder, a "set top box", a video player or any device for reading or broadcasting audio / video content.
- the invention relates to a computer program comprising code instructions for implementing the steps of a determination method as described, when these are executed by a processor.
- FIG. 1 illustrates a system for determining a note of acceptability of the zapping time comprising a device for determining a note of acceptability of the zapping time according to one embodiment of the invention
- FIG. 2 illustrates a method for determining a note of acceptability of the zapping time according to one embodiment of the invention
- FIG. 3 illustrates an example of a sequence of audiovisual scenes and waiting contents, displayed on a display screen
- FIGS. 4a to 4f illustrate several examples of waiting contents displayed during the zapping time
- FIG. 5 illustrates the steps of detection of reference sequences in a waiting content according to a particular embodiment of the invention
- FIG. 6 illustrates the steps of sound detection of a waiting content according to a particular embodiment of the invention
- FIGS. 7a and 7b illustrate examples of parametric models according to the invention.
- FIG. 8 illustrates an embodiment of a device for determining a score of acceptability according to the invention.
- FIG. 1 illustrates a system for checking the acceptability of the zapping time in which is represented a screen for viewing audiovisual content 170 such as a television, an audio / video decoder 160 or "set top box” or any other reader or broadcaster of audiovisual content.
- audiovisual content 170 such as a television, an audio / video decoder 160 or "set top box” or any other reader or broadcaster of audiovisual content.
- Such a decoder comprises a video acquisition module 161, an audio acquisition module 162, a module 163 for detecting infrared commands coming for example from a remote control 180 and a control module 164.
- These modules are conventional and well known. and will not be more detailed here.
- the decoder is connected to a device 100 for determining a note of acceptability of the zapping time.
- this device can be an integral part of the decoder.
- the determination device 100 receives as input a video stream and an audio stream. These flows are analyzed by a module of detection 110 which is able to detect different information that can be displayed as waiting content during a change of audiovisual scenes following a zapping action. This zapping action is detected by the module 120 for filtering infrared codes.
- a reference image detection module 111 (a reference image being for example a black image), a fluid loss detection module 112 which may for example show that an image is frozen, an information text banner detection module 113, a logo or moving image detection module 114 and a sound stop detection module 115.
- Other detection modules can thus be provided according to the different waiting contents that can be displayed via the decoder.
- the information thus detected is timestamped by the time stamping module 130.
- the time stamping module 130 thus different times are measured according to the display sequences of the different information of a waiting content.
- a module for simultaneity detection of audio and video renditions is also illustrated at 150. This detection also makes it possible to check how the waiting sequences are decoded. The level of acceptability for the user of these different sequences varies.
- the simultaneity module of the audio and video renderings verifies the synchronism of the waiting contents as well as the sequence of a change of audiovisual scenes. During the wait or the appearance of the new program, the broadcasting of the audio signal before the display of the video can improve the perception of the zapping time, and the opposite can penalize this same perception.
- a selection module 140 which will selecting a parametric model from among a plurality of stored patterns, which corresponds to the detected content and the measured zapping time.
- the particularity of the parametric models as stored is that they are determined not only according to a measurement parameter of the zapping time but also from information on the waiting content.
- This type of model is done by learning after a series of subjective tests done among a panel of users who give acceptability notes according to the waiting contents they visualize and the zapping times they undergo. .
- this parametric model selected at 140 makes it possible to obtain a Q acceptability score at the output of the device.
- This acceptability score can then be transmitted to a processing server which analyzes this note to evaluate the decoder thus tested, and thus detect, for example, a potential defect on the broadcasting of the content, on the decoder itself in relation to a note. acceptability that the server would likely expect.
- such a device 100 it can be placed at a specific location of the production network to test several different decoders and evaluate these different decoders. This device then has a role of evaluation robot.
- a first step of the E200 control method is to detect a zapping action (Detec.tzap).
- a stopwatch is started at step E201 to measure (Horodat.) The total time of passage from one scene to another .
- the zapping time is in fact the addition of network control times for changing the channel or content, storing the audio / video information and the decoding time of the second audiovisual scene.
- step E202 detection (Detectlnf.) Information displayed between the first scene and the second scene is performed.
- An optional step E203 for determining the information display time of a waiting content sequence can also be performed.
- This zapping time information and the information from the detection on the waiting content are used in step E 206 to select a parametric model (Param.Model) adapted from among a plurality of stored parametric models.
- a parametric model (Param.Model) adapted from among a plurality of stored parametric models.
- step E207 The application of this selected parametric model to the information obtained in step E205 and step E202 and optionally in step E203, makes it possible to determine (Det.Q) an acceptability note Q in step E207.
- This method thus determines a note of acceptability of the zapping time from the measured zapping time and taking into account information on the waiting content displayed during this zapping time.
- This determination brings a real vision of the quality of experience (QoE) of the user.
- Figure 3 illustrates an example of a sequence of audiovisual scenes and a waiting content following a zapping action between two audiovisual channels.
- a zapping action represented here at 301 at the instant T_C_C_1
- the passage of a channel A displaying a first audiovisual scene (Sel) to a scene B displaying a second audiovisual scene (Sc.2) is effected by a display of a waiting content (Cont).
- the waiting content is composed of an arimixed image 302 in the form of a "chaser” and a 303 textual information (EPG) strip for "Electronic Program Guide". information on the progress of the current program.
- EPG textual information
- This figure also illustrates the video acquisition that starts at a moment
- T_L_A_video The duration of the acquisition is represented in 304 and is here called D_A_video.
- D_A_video The duration of acquisition, the images 1 to n of the chain A (Im.l A, Im.2 A, ..., Im.n A) are displayed for scene 1 of the chain A, the images 1 to n (Im.l Cont., ..., Im.n Cont.) of the waiting contents, the images m and m + 1 (hn.rn B, ..., Im.m + l B) of stage 2 of the B chain.
- the video acquisition is preferably done on different video connections for example, on HDMI jacks (For "High Definition Multimedia Interface” in English) or scart jacks.
- Video signals can be scanned into YUV or RGB component formats (for Red, Green, Blue) to obtain video samples. These video samples can come directly from the output of a video decoder.
- the start and / or end of acquisition action video is initiated by a task scheduler or controller as shown at 164 in FIG.
- the audio acquisition is illustrated by a plurality of audio samples (Audio Echo 1A, Audio 2A Echo, Audio Echo n A) for the A string and (Audio m B, ... , AudioAudio m + 1 B) for the chain B.
- the audio acquisition time is represented at 305 and is called D_A_audio. It starts at the moment T_L_A_audio.
- the audio acquisition is preferably done on the various audio connectors such as HDMI jacks or scart jacks.
- Audio signals can be digitized in PCM format (for "Pulse Code Modulation") to obtain audio samples. These samples can also come directly from the output of the video decoder.
- PCM format for "Pulse Code Modulation”
- the start and / or end of audio acquisition action is also started by the task scheduler or controller 164. These actions can be started simultaneously with the actions on the video capture.
- Chain change control can be by means of infrared code transmission or via decoder key management.
- the instant of the launch of the zapping execution code is here represented at 301, at the instant T_C_C_1. H is greater than the time T_L_A audio and T_L_A_video.
- a waiting content comprising an animated "chase” and an information banner is displayed during the zapping time.
- Figures 4a to 4f illustrate different waiting contents with one or more contents displayed.
- the waiting content is a black image with a textual program information banner (EPG), the hour (h) and a cursor informing of the progress of the program in progress.
- the waiting content further comprises the information of FIG. 4a, an animated image in the form of a "chaser".
- the waiting content is a frozen image, that is to say a still image which generally corresponds to the last image displayed for the scene before the zapping action.
- the waiting content also includes the information banner described above.
- the waiting content further comprises the information described in FIG. 4c, an animated image in the form of a "chaser”.
- the waiting content comprises a sequence where a first frozen image is displayed with the information banner, then a black image is displayed with this same banner.
- FIG. 4f the same sequence is displayed with an animated image in the form of a "chase" for each of the images displayed.
- waiting contents can be displayed with one or more images in the form of sequences, with images or logos, animated or not.
- the audio part of the waiting content can also intervene.
- the sound of the first scene may remain during a time interval less than or equal to the zapping time or the sound may be cut during the entire duration of the zapping.
- a step of detecting information of the waiting content is performed.
- This step may contain one or more detection sub-steps. These sub-steps may for example be black image detection, still image detection, frozen image, textual or animated information strip detection, motion picture detection, stop detection. sound, etc ...
- Figure 5 illustrates one of these detections.
- a detection of reference images in the waiting content is thus illustrated.
- the waiting content includes the same images or sequences of images. These images constitute reference images that can for example be recorded in this decoder after a training sequence via video acquisitions. This learning sequence is performed before the content analysis phase. Thus reference images Im.Irl to Im.Irn as illustrated in FIG. 5 at 501 are recorded.
- the detection of these reference images in the waiting content is performed by a comparison between these reference images and the images of the waiting sequence displayed. This comparison can be done on all or part of the displayed image, in particular to avoid the area of appearance of the information banner. A tolerance level on the luminance and chrominance of the compared images is applied.
- TJPJJRn T_L_Avideo + (1 / ps x PJmgn) (2)
- T_P_I_Rn corresponds to the moment when the reference image "n" is found among the captured images
- PJmgn corresponds to the position of the reference image "n "in the set of captured images
- fps corresponds to the capture frequency (for example 50 or 60 Hz)
- TJ_A_video corresponds to the start time of the video acquisition.
- T_P_I_Rm is the time when the reference image "m” is found among the captured images. This image m corresponds to the last reference image found.
- the reference images are compared with the images captured at 502 and 503 to define the images present in the waiting content between the instants T_P_I_Rn and T_P_I_Rm.
- this information is kept in memory to select the right parametric model in step 206 of FIG.
- Another possible detection on the waiting content is that of the loss of fluidity of the video stream. This detection is intended to verify whether the video sequence is performed on one or more stable or stable image rate.
- the fluidity detection must take place before the change of control command chain. The detection is started before the instant T_C_C_1 to see if there is a loss of video fluidity on the existing program, until the arrival of the new program.
- the scan time of the video detection may be equal to D_A_Video.
- the loss of fluency detection will be performed on the images of the current channel and on the images of the new requested channel.
- the number of images of the current captured string must be greater than or equal to the number of images over a period of one second (ie the inverse of the image frequency). For example, if the frame rate is 25 frames per second, you must capture at least 25 frames on the current channel.
- the reasoning is identical for the images of the chain B.
- the images of the chains A and B can sometimes be interspersed with images of waiting with or without the presence of an animated logo, a fixed logo or related information. in the name of the channel and the associated program. This search is carried out by the detection of reference images or by the detection of fixed or animated logos.
- the loss of fluidity is therefore related to the presence of a momentary gel.
- the image freeze is detected by calculating whether the derivative of the luminance and chrominance levels with respect to time is zero, according to the following equations:
- FIG. 6 Another example of detecting information on the waiting content is illustrated with reference to FIG. 6.
- the audio samples of the channel A are illustrated from the start of the audio acquisition T_L_A_audio.
- the instant of start of zapping is represented in this figure by T_P_I_Am. From this moment, the samples of sound waiting are represented in ContAudio 1 and ContAudio n.
- a measurement of comparison to an audio threshold is performed on N sound samples. It can indeed be considered that there is a mute when the detection of N samples less than a threshold is greater than a predetermined time, for example 30ms. This time also corresponds to a number of samples M.
- T_P_I_ARn T_L_A_a dio + Mx (l / audio sampling frequency) (5) where M is the number of samples after which the sound is stopped.
- T_P_I_ARm corresponds to the time when the sound level returns above the Sax audio threshold, that is to say that N samples greater than the threshold are detected over a period greater than a predetermined duration, for example 30ms.
- a method as described with reference to FIG. 5 may be used with a spatial location on an area of the image.
- the parametric models are determined by learning from a series of subjective tests carried out with a panel of users testing different waiting contents and different zapping times.
- the parametric models are defined both as a function of the zapping time between two audiovisual scenes but also by taking into account information on the waiting content displayed between these two scenes.
- the coefficient a is for example between 1000 and 4000 and the coefficient b is between 4 and 10.
- the end times of detection of the reference images here, black image
- T_P_I_Rm in FIG. 5 the end times of detection of absence of sound ⁇ T_P_I_Arm in Figure 6
- the duration of zapping is then determined as follows:
- Q represents the acceptability score of the zapping time. It is expressed as a percentage.
- FIG. 7a and FIG. 7b graphically illustrate this parametric model as a function of the measured zapping time.
- the zapping duration is determined as in equation (7). The end of detection of the frozen image corresponding to the moment when the equations (3) and (4) are no longer verified.
- the acceptability of the zapping time for this type of waiting content is defined by the following parametric model:
- Q represents the acceptability score of the zapping time. It is expressed as a percentage.
- Figure 7b graphically illustrates this parametric model, as a function of measured zapping time.
- the waiting content is an animated logo displayed for example on a black image and the sound is not present
- the end times of detection of the reference images here, black image
- T_PJ._Arm in FIG. 6 are substantially equivalent.
- the moments of detection of the beginning of display of the animated logo and the end of display are in fact between these two moments of beginning of detection of the black image T_P_I_Rn and the end of detection of the black image T_P_I_Rm,
- the duration of zapping is then determined in the same way as the equation
- the acceptability of the zapping time for this type of waiting content is defined by the following parametric model:
- Figure 7a graphically illustrates this parametric model as a function of measured zapping time.
- models taken as an example here are determined according to the total time of zapping.
- Other models may also be expressed as a function of intermediate times of display of the different information of the waiting content.
- FIG. 8 represents an example of a device for determining an acceptability score.
- This device comprises a PROC processor cooperating with a memory block BM having a memory storage and / or working MEM.
- the memory block may advantageously comprise a computer program comprising code instructions for implementing the steps of the method of determining a score of acceptability in the sense of the invention, when these instructions are executed by the processor PROC, and in particular measuring the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action and taking into account at least one information on the waiting content displayed between the first and the second audiovisual scene.
- the description of FIG. 2 repeats the steps of an algorithm of such a computer program.
- the computer program may also be stored on a memory medium readable by a reader of the device or downloadable in the memory space of this device.
- the device comprises an input module (E) able to receive an audio signal
- a and video (V) as well as zapping control information comes either from a decoder or external reader, or from an internal module when the device is integrated in such a decoder or reader.
- the device comprises an output module (S) capable of transmitting an acceptability note Q to a communication network or other information transmission device.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Signal Processing (AREA)
- Finance (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Strategic Management (AREA)
- Health & Medical Sciences (AREA)
- Game Theory and Decision Science (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Marketing (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
The invention relates to a method for determining a zapping time acceptability score (Q) by measuring (E201) the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action (E202) in such a way as to also take into account at least one piece of information regarding the waiting content displayed between the first and second audiovisual scenes. The invention also relates to a parametric zapping time acceptability model for use in a determination method such as the one described. The invention further relates to a device implementing such a method and to a decoder including such a device.
Description
Dispositif et procédé de détermination d'une note d'acceptabilité du temps de zapping Device and method for determining a note of acceptability of the zapping time
La présente invention se rapporte à un procédé de détermination d'une note d'acceptabilité du temps de zapping et de mesure de qualité de service (QoS) associé à ce temps de zapping. The present invention relates to a method for determining a rating of acceptability of zapping time and quality of service measurement (QoS) associated with this zapping time.
Plus particulièrement, l'invention s'intéresse ici à une mesure de qualité perçue ou qualité d'expérience (QoE) par les utilisateurs sur l'action de zapping. More particularly, the invention is concerned here with a measurement of perceived quality or quality of experience (QoE) by the users on the zapping action.
L'invention se rapporte également à un dispositif de détermination d'une note d'acceptabilité apte à mesurer l'acceptabilité du temps de zapping dans des appareils audio/vidéo. The invention also relates to a device for determining an acceptability score capable of measuring the acceptability of the zapping time in audio / video devices.
Une telle détermination ou contrôle permet d'évaluer les différents systèmes audio/vidéo tels que décodeurs TV, "set top box" ou autres diffuseurs de contenu audiovisuel. Such determination or control makes it possible to evaluate the various audio / video systems such as set-top boxes or other broadcasters of audiovisual content.
L'invention se rapporte aussi à un modèle paramétrique innovant destiné à être utilisé dans un tel procédé de détermination d'une note d'acceptabilité du temps de zapping. The invention also relates to an innovative parametric model for use in such a method of determining a note of acceptability of the zapping time.
Dans les systèmes existants de détermination de note d'acceptabilité, une mesure du temps entre l'action de zapping pour passer d'une première scène audiovisuelle à une deuxième scène audiovisuelle, est effectuée. En fonction du temps de zapping ainsi mesuré, différents modèles paramétriques ont été définies afin de déterminer le niveau d'acceptabilité de l'utilisateur par rapport à ce temps. In existing systems for acceptability score determination, a measurement of the time between the zapping action to switch from a first audiovisual scene to a second audiovisual scene is performed. Depending on the zapping time thus measured, different parametric models have been defined in order to determine the level of user acceptability with respect to this time.
Le document intitulé "Perceived quality of channel zapping" des auteurs Kooij, R., Ahmed, K., and Brunnstr¨o, K. de Proc. of 5th IASTED International Conférence on Communication Systems and Network, Aug st 28-30, 2006, (2006),
décrit un tel système de contrôle basé sur la mesure du temps de passage entre deux chaînes. The document entitled "Perceived Quality of Channel Zapping" by Kooij, R., Ahmed, K., and Brunnstro, K., Proc. of 5th International Conference on Communication Systems and Network, Aug. 28-30, 2006, (2006), describes such a control system based on the measurement of the passage time between two chains.
Un score moyen est basé sur une échelle de qualité appelée MOSp de notes d'acceptabilité appelée MOSp (pour "Mean Opinion Score Prédiction" en anglais) est issue des modèles ainsi appliqués. An average score based on a quality scale called MOSp of acceptability scores called MOSp (for "Mean Opinion Score Prediction") comes from the models so applied.
Cependant, les notes de qualité ainsi définies,, ne reflète pas exactement l'acceptabilité de l'utilisateur devant différentes situations qui peuvent être proposées entre les premier et deuxième écrans de visualisation. However, the quality scores thus defined, do not exactly reflect the acceptability of the user to different situations that can be proposed between the first and second display screens.
Ainsi, on a pu remarquer expérimentalement qu'un temps de zapping prédéterminé était accepté plus facilement par un utilisateur si un contenu d'attente était affiché entre la première et la deuxième scène audiovisuelle. Thus, it has been observed experimentally that a predetermined zapping time was more easily accepted by a user if a waiting content was displayed between the first and the second audiovisual scene.
11 existe donc un besoin de prendre en compte ces différences de perceptions de l'utilisateur pour obtenir un niveau d'acceptabilité réellement perçu par l'utilisateur et donc plus fiable. There is therefore a need to take into account these differences in user perceptions to obtain a level of acceptability actually perceived by the user and therefore more reliable.
L'invention vient améliorer la situation. The invention improves the situation.
A cet effet, l'invention se rapporte à un procédé de détermination d'une note d'acceptabilité d'un temps de zapping à partir d'une mesure du temps de zapping entre une première scène audiovisuelle et une deuxième scène audiovisuelle suite à une action de zapping. Le procédé est tel qu'il comporte les étapes suivantes: For this purpose, the invention relates to a method for determining a rating of acceptability of a zapping time from a measurement of the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action. The method is such that it comprises the following steps:
- détection d'informations du contenu d'attente affiché entre la première scène audiovisuelle et la deuxième scène audiovisuelle; - Detecting information of the waiting content displayed between the first audiovisual scene and the second audiovisual scene;
- sélection d'un modèle paramétrique parmi une pluralité de modèles paramétriques mémorisés en fonction des informations détectées et du temps mesuré; selecting a parametric model from a plurality of stored parametric models according to the detected information and the measured time;
- détermination d'une note d'acceptabilité issue du modèle paramétrique sélectionné.
Selon les informations détectées dans le contenu d'attente, les modèles paramétriques diffèrent. La sélection du bon modèle paramétrique donnera la note d'acceptabilité adaptée à la situation. Cette note d'acceptabilité prend en compte en outre au moins une information sur le contenu d'attente affiché entre la première et la deuxième scène audiovisuelle. determination of an acceptability score from the selected parametric model. Depending on the information detected in the waiting content, the parametric models differ. Selecting the right parametric model will give the acceptability score appropriate to the situation. This acceptability note also takes into account at least one information on the waiting content displayed between the first and the second audiovisual scene.
Ainsi la note d'acceptabilité est déterminée en prenant en compte des informations sur le contenu d'attente qui peuvent faire varier cette note par rapport à une détermination basée uniquement sur le temps de zapping. Thus, the acceptability score is determined by taking into account information on the waiting content that can vary this rating with respect to a determination based solely on the zapping time.
Cette note est donc plus représentative du réel ressenti de l'utilisateur et donne une mesure réelle de qualité d'expérience (QoE). This note is therefore more representative of the real feeling of the user and gives a real measure of quality of experience (QoE).
Les différents modes particuliers de réalisation mentionnés ci-après peuvent être ajoutés indépendamment ou en combinaison les uns avec les autres, avec les caractéristiques mentionnées ci-dessus. The various particular embodiments mentioned below may be added independently or in combination with each other, with the characteristics mentioned above.
Ainsi, dans des modes particuliers de réalisation, la détection d'informations affichées comporte une ou plusieurs étapes de détection du groupe suivant: Thus, in particular embodiments, the detection of displayed information comprises one or more detection steps of the following group:
- détection d'image fixe sur tout ou partie de l'affichage, - fixed image detection on all or part of the display,
- détection d'image noire, - black image detection,
- détection d'image gelée de la première ou de la deuxième scène audiovisuelle, - frozen image detection of the first or second audiovisual scene,
- détection d'un bandeau d'informations textuelles, detection of a banner of text information,
- détection d'images animées, - motion picture detection,
- détection d'absence de son. - detection of absence of sound.
Ces différentes méthodes de détections permettent donc d'analyser le contenu d'attente et de détecter soit des contenus de type image noire, image fixe ou gelée, image animée par exemple un "chenillard", une coupure du son ou encore un enchaînement de plusieurs types cités.
La liste de détection possible n'est absolument pas exhaustive et peut inclure bien d'autres types de détections adaptées à des contenus d'attente divers. These different detection methods thus make it possible to analyze the waiting content and to detect either black-image content, still or frozen image, animated image for example a "chaser", a sound cut or a sequence of several types mentioned. The possible detection list is absolutely not exhaustive and can include many other types of detections adapted to various waiting contents.
Dans un mode de réalisation particulier, il comporte en outre une mesure des temps d'affichage entre différentes informations détectées, les temps mesurés étant utilisés pour la sélection du modèle paramétrique. In a particular embodiment, it further comprises a measurement of the display times between different detected information, the measured times being used for the selection of the parametric model.
Il est ainsi possible de différencier également des contenus d'attente selon des séquences d'affichage de contenus différents et du temps d'affichage de ces contenus. Des modèles paramétriques adaptés sont ainsi construits selon ces caractéristiques et mémorisés pour une utilisation de contrôle. It is thus possible to differentiate also waiting contents according to display sequences of different contents and the display time of these contents. Adapted parametric models are thus constructed according to these characteristics and stored for control use.
Dans un mode de réalisation préféré, les modèles paramétriques sont déterminés par apprentissage, à partir de mesures de temps de zapping et d'informations sur les contenus d'attente. In a preferred embodiment, the parametric models are determined by learning, from zapping time measurements and information on the waiting contents.
Les modèles paramétriques sont donc adaptés aux contenus d'attente susceptibles d'être affichés. The parametric models are therefore adapted to the waiting contents that can be displayed.
L'invention se rapporte également à un modèle paramétrique d'acceptabilité du temps de zapping destiné à être utilisé dans un procédé de détermination d'une note d'acceptabilité du temps de zapping, déterminé à partir de paramètres de mesure du temps de zapping entre une première scène audiovisuelle et une deuxième scène audiovisuelle. Ce modèle est tel qu'il est déterminé en outre à partir d'informations sur un contenu d'attente affiché entre la première et la deuxième scène. The invention also relates to a parametric model of acceptability of the zapping time intended to be used in a method of determining a zapping time acceptability score, determined from parameters for measuring the zapping time between a first audiovisual scene and a second audiovisual scene. This model is such that it is further determined from information on a waiting content displayed between the first and the second scene.
Ce type de modèle paramétrique, à la différence des modèles existants prend en compte des informations de contenu d'attente. Différents modèles paramétriques peuvent ainsi être déterminés et mémorisés pour une utilisation dans un procédé de détermination tel que décrit ci-dessus.
Dans un mode de réalisation particulier, les modèles paramétriques prennent en compte il est déterminé en outre à partir de temps d'affichage mesurés entre différentes informations affichées du contenu d'attente. This type of parametric model, unlike existing models, takes into account wait-content information. Different parametric models can thus be determined and stored for use in a determination method as described above. In a particular embodiment, the parametric models take into account it is further determined from measured display times between different displayed information of the waiting content.
L'invention se rapporte à un dispositif de déterrnination d'une note d'acceptabilité du temps de zapping comportant un module de mesure du temps de zapping entre une première scène audiovisuelle et une deuxième scène audiovisuelle suite à une action de zapping. Le dispositif est tel qu'il comporte en outre un module d'obtention d'au moins une information sur le contenu d'attente affiché entre la première et la deuxième scène audiovisuelle pour la détermination de la note d'acceptabilité du temps de zapping. The invention relates to a device for determining a note of acceptability of the zapping time comprising a module for measuring the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action. The device is such that it further comprises a module for obtaining at least one information on the waiting content displayed between the first and the second audiovisual scene for determining the acceptability score of the zapping time.
Elle se rapporte également à un décodeur audio/vidéo comportant un dispositif tel que décrit ci-dessus. It also relates to an audio / video decoder comprising a device as described above.
Un tel décodeur peut être intégré dans un décodeur de salon, une "set top box", un lecteur vidéo ou tout dispositif de lecture ou de diffusion de contenu audio/vidéo. Such a decoder can be integrated in a lounge decoder, a "set top box", a video player or any device for reading or broadcasting audio / video content.
Enfin, l'invention se rapporte à un programme informatique comportant des instructions de code pour la mise en oeuvre des étapes d'un procédé de détermination tel que décrit, lorsque celles-ci sont exécutées par un processeur. D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante, donnée uniquement à titre d'exemple non hmitatif, et faite en référence aux dessins annexés, sur lesquels: Finally, the invention relates to a computer program comprising code instructions for implementing the steps of a determination method as described, when these are executed by a processor. Other features and advantages of the invention will emerge more clearly on reading the following description, given solely by way of non-limiting example, and with reference to the appended drawings, in which:
- la figure 1 illustre un système de détermination d'une note d'acceptabilité du temps de zapping comprenant un dispositif de détermination d'une note d'acceptabilité du temps de zapping selon un mode de réalisation de l'invention;
- la figure 2 illustre un procédé de détermination d'une note d'acceptabilité du temps de zapping selon un mode de réalisation de l'invention; FIG. 1 illustrates a system for determining a note of acceptability of the zapping time comprising a device for determining a note of acceptability of the zapping time according to one embodiment of the invention; FIG. 2 illustrates a method for determining a note of acceptability of the zapping time according to one embodiment of the invention;
- la figure 3 illustre un exemple d'enchaînement de scènes audiovisuelles et de contenu d'attente, affichés sur un écran de visualisation; FIG. 3 illustrates an example of a sequence of audiovisual scenes and waiting contents, displayed on a display screen;
- les figures 4a à 4f illustrent plusieurs exemples de contenu d'attente affichés pendant le temps de zapping; FIGS. 4a to 4f illustrate several examples of waiting contents displayed during the zapping time;
- la figure 5 illustre les étapes de détection de séquences de référence dans un contenu d'attente selon un mode particulier de réalisation de l'invention; FIG. 5 illustrates the steps of detection of reference sequences in a waiting content according to a particular embodiment of the invention;
- la figure 6 illustre les étapes de détection sonore d'un contenu d'attente selon un mode particulier de réalisation de l'invention; FIG. 6 illustrates the steps of sound detection of a waiting content according to a particular embodiment of the invention;
- les figures 7a et 7b illustrent des exemples de modèles paramétriques selon l'invention; et FIGS. 7a and 7b illustrate examples of parametric models according to the invention; and
- la figure 8 illustre un mode de réalisation d'un dispositif de détermination d'une note d'acceptabilité selon l'invention. FIG. 8 illustrates an embodiment of a device for determining a score of acceptability according to the invention.
La figure 1 illustre un système de contrôle d'acceptabilité du temps de zapping dans lequel est représenté un écran de visualisation de contenu audiovisuel 170 tel qu'une télévision, un décodeur audio/vidéo 160 ou "set top box" ou tout autre lecteur ou diffuseur de contenu audiovisuel. FIG. 1 illustrates a system for checking the acceptability of the zapping time in which is represented a screen for viewing audiovisual content 170 such as a television, an audio / video decoder 160 or "set top box" or any other reader or broadcaster of audiovisual content.
Un tel décodeur comporte un module d'acquisition vidéo 161, un module d'acquisition audio 162, un module 163 de détection de commandes infrarouge provenant par exemple d'une télécommande 180 et un module de contrôle 164. Ces modules sont classiques et bien connus et ne seront pas plus détaillés ici. Such a decoder comprises a video acquisition module 161, an audio acquisition module 162, a module 163 for detecting infrared commands coming for example from a remote control 180 and a control module 164. These modules are conventional and well known. and will not be more detailed here.
Le décodeur est relié à un dispositif 100 de détermination d'une note d'acceptabilité du temps de zapping. Dans un autre mode de réalisation, ce dispositif peut faire partie intégrante du décodeur. Le dispositif de détermination 100 reçoit en entrée un flux vidéo et un flux audio. Ces flux sont analysés par un module de
détection 110 qui est apte à détecter différentes informations pouvant s'afficher en tant que contenu d'attente lors d'un changement de scènes audiovisuelles suite à une action de zapping. Cette action de zapping est détectée par le module 120 de filtrage des codes infrarouges. The decoder is connected to a device 100 for determining a note of acceptability of the zapping time. In another embodiment, this device can be an integral part of the decoder. The determination device 100 receives as input a video stream and an audio stream. These flows are analyzed by a module of detection 110 which is able to detect different information that can be displayed as waiting content during a change of audiovisual scenes following a zapping action. This zapping action is detected by the module 120 for filtering infrared codes.
Plusieurs modules de détection sont intégrés dans le module 110. Sont illustrés ici, un module de détection d'image de référence 111 (une image de référence étant par exemple une image noire), un module de détection de perte de fluidité 112 pouvant par exemple montrer qu'une image est figée, un module de détection de bandeau textuel d'informations 113, un module de détection de logos ou d'images animées 114 et un module de détection d'arrêt du son 115. Several detection modules are integrated in the module 110. Here is illustrated a reference image detection module 111 (a reference image being for example a black image), a fluid loss detection module 112 which may for example show that an image is frozen, an information text banner detection module 113, a logo or moving image detection module 114 and a sound stop detection module 115.
D'autres modules de détection peuvent ainsi être prévus suivant les différents contenus d'attente susceptibles d'être affichés par l'intermédiaire du décodeur. Other detection modules can thus be provided according to the different waiting contents that can be displayed via the decoder.
A l'issu de ces modules de détection, les informations ainsi détectées sont horodatées par le module d'horodatage 130. Ainsi différents temps sont mesurés selon les séquences d'affichage des différentes informations d'un contenu d'attente. At the end of these detection modules, the information thus detected is timestamped by the time stamping module 130. Thus different times are measured according to the display sequences of the different information of a waiting content.
Un module de détection de simultanéité des rendus audio et vidéo est également illustré en 150. Cette détection permet également de vérifier comment les séquences d'attente sont décodées. Le niveau d'acceptabilité pour l'utilisateur, de ces différentes séquences, varie. Le module de simultanéité des rendus audio et vidéo vérifie le synchronisme des contenus d'attente ainsi que l'enchaînement d'un changement de scènes audiovisuelles. Durant l'attente ou à l'apparition du nouveau programme, la diffusion du signal audio avant l'affichage de la vidéo peut améliorer la perception du temps de zapping, et l'inverse peut pénaliser cette même perception. A module for simultaneity detection of audio and video renditions is also illustrated at 150. This detection also makes it possible to check how the waiting sequences are decoded. The level of acceptability for the user of these different sequences varies. The simultaneity module of the audio and video renderings verifies the synchronism of the waiting contents as well as the sequence of a change of audiovisual scenes. During the wait or the appearance of the new program, the broadcasting of the audio signal before the display of the video can improve the perception of the zapping time, and the opposite can penalize this same perception.
Toutes les informations sur le contenu d'attente ainsi que le temps de zapping mesuré en 130, sont donnés en entrée d'un module de sélection 140 qui va
choisir un modèle paramétrique parmi une pluralité de modèles mémorisés, qui correspond au contenu détecté et au temps de zapping mesuré. All the information on the waiting content as well as the zapping time measured at 130, are given as input of a selection module 140 which will selecting a parametric model from among a plurality of stored patterns, which corresponds to the detected content and the measured zapping time.
La particularité des modèles paramétriques tel que mémorisés est qu'ils sont déterminés non seulement en fonction d'un paramètre de mesure du temps de zapping mais également à partir d'informations sur le contenu d'attente. The particularity of the parametric models as stored is that they are determined not only according to a measurement parameter of the zapping time but also from information on the waiting content.
Le modèle paramétrique en lui même est original. The parametric model itself is original.
La détermination de ce type de modèle est effectuée par aprentissage après une série de tests subjectifs fait parmi un panel d'utilisateur qui donnent des notes d'acceptabilité selon les contenus d'attente qu'ils visualisent et les temps de zapping qu'ils subissent. The determination of this type of model is done by learning after a series of subjective tests done among a panel of users who give acceptability notes according to the waiting contents they visualize and the zapping times they undergo. .
Des exemples de tels modèles paramétriques seront illustrés ultérieurement en référence aux figures 7a et 7b. Examples of such parametric models will be illustrated later with reference to FIGS. 7a and 7b.
L'application de ce modèle paramétrique sélectionné en 140 aux informations détectés et mesurés permet d'obtenir une note d'acceptabilité Q en sortie du dispositif. The application of this parametric model selected at 140 to the detected and measured information makes it possible to obtain a Q acceptability score at the output of the device.
Cette note d'acceptabilité peut ensuite être transmis à un serveur de traitement qui analyse cette note pour évaluer le décodeur ainsi testé, et ainsi détecter par exemple un défaut potentiel sur la diffusion du contenu, sur le décodeur lui- même par rapport à une note d'acceptabilité que le serveur serait susceptible d'attendre. This acceptability score can then be transmitted to a processing server which analyzes this note to evaluate the decoder thus tested, and thus detect, for example, a potential defect on the broadcasting of the content, on the decoder itself in relation to a note. acceptability that the server would likely expect.
Dans une utilisation possible d'un tel dispositif 100, celui-ci peut être placé à un endroit précis du réseau de production pour tester plusieurs décodeurs différents et évaluer ces différents décodeurs. Ce dispositif a alors un rôle de robot d'évaluation. In a possible use of such a device 100, it can be placed at a specific location of the production network to test several different decoders and evaluate these different decoders. This device then has a role of evaluation robot.
En référence à la figure 2, les étapes d'un procédé de détermination d'une note d'acceptabilité du temps de zapping sont maintenant décrites. Une première
étape du procédé de contrôle E200 consiste à détecter une action de zapping (Detec.tzap). A la détection de cette action de zapping pour passer d'une première scène audiovisuelle à une deuxième scène audiovisuelle, un chronomètre est enclenché à l'étape E201 pour mesurer (Horodat.) le temps total de passage d'une scène à l'autre. With reference to FIG. 2, the steps of a method for determining a note of acceptability of the zapping time are now described. A first step of the E200 control method is to detect a zapping action (Detec.tzap). At the detection of this zapping action to switch from a first audiovisual scene to a second audiovisual scene, a stopwatch is started at step E201 to measure (Horodat.) The total time of passage from one scene to another .
Le temps de zapping est en fait l'addition des temps de commande réseau de changement de chaîne ou de contenu, de mise en mémoire des informations audio/vidéo et du temps de décodage de la deuxième scène audiovisuelle. The zapping time is in fact the addition of network control times for changing the channel or content, storing the audio / video information and the decoding time of the second audiovisual scene.
Parallèlement, une étape E202 de détection (Detectlnf.) d'informations affichées entre la première scène et la deuxième scène est effectuée. Meanwhile, a step E202 detection (Detectlnf.) Information displayed between the first scene and the second scene is performed.
Plusieurs types de détections peuvent être effectués selon le type de contenu d'attente susceptible d'être affiché. Quelques exemples de détections seront décrits ultérieurement en référence aux figures 5 et 6. Several types of detections can be made depending on the type of waiting content that can be displayed. Some examples of detections will be described later with reference to FIGS. 5 and 6.
Une étape optionnelle E203 de détermination du temps d'affichage d'informations d'une séquence de contenu d'attente peut aussi être effectuée. An optional step E203 for determining the information display time of a waiting content sequence can also be performed.
Lorsque la deuxième scène audiovisuelle est affichée (At.Sc2) en E204, le temps total de zapping (t.zap.) est déterminé en E 205. When the second audiovisual scene is displayed (At.Sc2) in E204, the total zapping time (t.zap.) Is determined at E 205.
Cette information du temps de zapping et les informations issues de la détection sur le contenu d'attente sont utilisées à l'étape E 206 pour sélectionner un modèle paramétrique (Param.Model) adapté parmi une pluralité de modèles paramétriques mémorisés. This zapping time information and the information from the detection on the waiting content are used in step E 206 to select a parametric model (Param.Model) adapted from among a plurality of stored parametric models.
L'application de ce modèle paramétrique sélectionné aux informations obtenues à l'étape E205 et à l'étape E202 et optionnellement à l'étape E203, permet de déterminer (Det.Q) une note d'acceptabilité Q à l'étape E207.
Ce procédé détermine ainsi une note d'acceptabilité du temps de zapping à partir du temps de zapping mesuré et en prenant en compte des informations sur le contenu d'attente affiché pendant ce temps de zapping. The application of this selected parametric model to the information obtained in step E205 and step E202 and optionally in step E203, makes it possible to determine (Det.Q) an acceptability note Q in step E207. This method thus determines a note of acceptability of the zapping time from the measured zapping time and taking into account information on the waiting content displayed during this zapping time.
Cette détermination apporte une réelle vision de la qualité d'expérience (QoE) de l'utilisateur. This determination brings a real vision of the quality of experience (QoE) of the user.
La figure 3 illustre un exemple d'enchaînement de scènes audiovisuelles et d'un contenu d'attente suite à une action de zapping entre deux chaînes audiovisuelles. Après une action de zapping, représentée ici en 301 à l'instant T_C_C_1, le passage d'une chaîne A affichant une première scène audiovisuelle (Sel) à une scène B affichant une deuxième scène audiovisuelle (Sc.2), s'effectue par un affichage d'un contenu d'attente (Cont). Dans l'exemple représenté ici, le contenu d'attente est composé d'une image arximée 302 sous forme de "chenillard" et d'un bandeau 303 d'information textuelle (EPG pour "Electronic Program Guide" en anglais) et d'information sur l'état d'avancement du programme en cours.. Figure 3 illustrates an example of a sequence of audiovisual scenes and a waiting content following a zapping action between two audiovisual channels. After a zapping action, represented here at 301 at the instant T_C_C_1, the passage of a channel A displaying a first audiovisual scene (Sel) to a scene B displaying a second audiovisual scene (Sc.2) is effected by a display of a waiting content (Cont). In the example represented here, the waiting content is composed of an arimixed image 302 in the form of a "chaser" and a 303 textual information (EPG) strip for "Electronic Program Guide". information on the progress of the current program.
Cette figure illustre également l'acquisition vidéo qui démarre à un instant This figure also illustrates the video acquisition that starts at a moment
T_L_A_video. La durée de l'acquisition est représentée en 304 et est appelé ici D_A_video. Pendant cette durée d'acquisition, les images 1 à n de la chaîne A (Im.l A, Im.2 A,...,Im.n A) sont affichés pour la scène 1 de la chaîne A, les images 1 à n (Im.l Cont.,...,Im.n Cont.) du contenu d'attente, les images m et m+1 (hn.rn B , ... ,Im.m+l B) de la scène 2 de la chaîne B . T_L_A_video. The duration of the acquisition is represented in 304 and is here called D_A_video. During this duration of acquisition, the images 1 to n of the chain A (Im.l A, Im.2 A, ..., Im.n A) are displayed for scene 1 of the chain A, the images 1 to n (Im.l Cont., ..., Im.n Cont.) of the waiting contents, the images m and m + 1 (hn.rn B, ..., Im.m + l B) of stage 2 of the B chain.
L'acquisition vidéo s'effectue de préférence sur différentes connectiques vidéo par exemple, sur des prises HDMI (Pour "High Définition Multimedia Interface" en anglais) ou des prises péritel. Les signaux vidéo peuvent être numérisés dans des formats de composantes YUV ou RVB (pour Rouge, Vert, Bleu) afin d'obtenir des échantillons vidéo. Ces échantillons vidéo peuvent provenir directement de la sortie d'un décodeur vidéo. L'action de démarrage et/ou de fin d'acquisition
vidéo est lancée par un planificateur de tâches ou contrôleur comme représenté en 164 à la figure 2. The video acquisition is preferably done on different video connections for example, on HDMI jacks (For "High Definition Multimedia Interface" in English) or scart jacks. Video signals can be scanned into YUV or RGB component formats (for Red, Green, Blue) to obtain video samples. These video samples can come directly from the output of a video decoder. The start and / or end of acquisition action video is initiated by a task scheduler or controller as shown at 164 in FIG.
De même, l'acquisition audio est illustrée par une pluralité d'échantillons audio (Ech.Audio 1 A, Ech. Audio 2 A, Ech. Audio n A) pour la chaîne A et (Ech. Audio m B, ..., Ech.Audio m+1 B) pour la chaîne B. La durée d'acquisition audio est représentée en 305 et est appelé D_A_audio. Elle démarre à l'instant T_L_A_audio. Likewise, the audio acquisition is illustrated by a plurality of audio samples (Audio Echo 1A, Audio 2A Echo, Audio Echo n A) for the A string and (Audio m B, ... , AudioAudio m + 1 B) for the chain B. The audio acquisition time is represented at 305 and is called D_A_audio. It starts at the moment T_L_A_audio.
L'acquisition audio s'effectue de préférence sur les différentes connectiques audio comme des prises HDMI ou des prises péritel. Les signaux audio peuvent être numérisés dans le format PCM (Pour "Puise Code Modulation" en anglais) afin d'obtenir des échantillons audio. Ces échantillons peuvent également provenir directement de la sortie du décodeur vidéo. L'action de démarrage et/ou de fin d'acquisition audio est également lancée par le planificateur de tâche ou contrôleur 164. Ces actions peuvent être lancées simultanément avec les actions sur la captation vidéo. The audio acquisition is preferably done on the various audio connectors such as HDMI jacks or scart jacks. Audio signals can be digitized in PCM format (for "Pulse Code Modulation") to obtain audio samples. These samples can also come directly from the output of the video decoder. The start and / or end of audio acquisition action is also started by the task scheduler or controller 164. These actions can be started simultaneously with the actions on the video capture.
La commande de changement de chaîne peut se faire au moyen d'une transmission de codes infra rouge ou via une gestion des touches du décodeur. Chain change control can be by means of infrared code transmission or via decoder key management.
L'instant du lancement du code d'exécution du zapping est ici représenté en 301, à l'instant T_C_C_1. H est supérieur au temps T_L_A audio et T_L_A_video. The instant of the launch of the zapping execution code is here represented at 301, at the instant T_C_C_1. H is greater than the time T_L_A audio and T_L_A_video.
Dans cet exemple illustré à la figure 3, un contenu d'attente comportant un "chenillard" animé et un bandeau d'informations est affiché pendant le temps de zapping. In this example illustrated in FIG. 3, a waiting content comprising an animated "chase" and an information banner is displayed during the zapping time.
Les figures 4a à 4f illustrent différents contenus d'attente avec un ou plusieurs contenus affichés. Ainsi, sur la figure 4a, le contenu d'attente est une image noire avec un bandeau d'information textuelle de programme (EPG), l'heure (h) et un curseur informant de l'état d'avancement du programme en cours.
Sur la figure 4b, le contenu d'attente comporte en plus des informations de la figure 4 a, une image animée sous forme de "chenillard". Figures 4a to 4f illustrate different waiting contents with one or more contents displayed. Thus, in FIG. 4a, the waiting content is a black image with a textual program information banner (EPG), the hour (h) and a cursor informing of the progress of the program in progress. . In FIG. 4b, the waiting content further comprises the information of FIG. 4a, an animated image in the form of a "chaser".
Sur la figure 4c, le contenu d'attente est une image gelée, c'est-à-dire une image fixe qui généralement correspond à la dernière image affichée pour la scène avant l'action de zapping. En plus de cette image fixe, le contenu d'attente comporte également le bandeau d'information décrit précédemment. In FIG. 4c, the waiting content is a frozen image, that is to say a still image which generally corresponds to the last image displayed for the scene before the zapping action. In addition to this still image, the waiting content also includes the information banner described above.
Sur la figure 4d, le contenu d'attente comporte en plus des informations décrites en figure 4c, une image animée sous forme de "chenillard". In FIG. 4d, the waiting content further comprises the information described in FIG. 4c, an animated image in the form of a "chaser".
Sur la figure 4e, le contenu d'attente comporte une séquence où une première image gelée est affichée avec le bandeau d'informations, puis une image noire est affichée avec ce même bandeau. In FIG. 4e, the waiting content comprises a sequence where a first frozen image is displayed with the information banner, then a black image is displayed with this same banner.
Sur la figure 4f, la même séquence est affichée avec en plus, une image animée sous forme de "chenillard", pour chacune des images affichées. In FIG. 4f, the same sequence is displayed with an animated image in the form of a "chase" for each of the images displayed.
Bien évidemment, ces illustrations ne représentent que des exemples de réalisation possibles. De nombreux autres contenus d'attente peuvent être affichés avec une ou plusieurs images sous forme de séquences, avec des images ou logos, animées ou pas. La partie audio du contenu d'attente peut également intervenir. Par exemple, le son de la première scène peut subsister pendant un intervalle de temps inférieur ou égal au temps de zapping ou bien le son peut être coupé pendant toute la durée du zapping. Of course, these illustrations represent only possible embodiments. Many other waiting contents can be displayed with one or more images in the form of sequences, with images or logos, animated or not. The audio part of the waiting content can also intervene. For example, the sound of the first scene may remain during a time interval less than or equal to the zapping time or the sound may be cut during the entire duration of the zapping.
Afin de détecter ces différents contenus d'attente, une étape de détection d'informations du contenu d'attente est effectuée. Cette étape peut contenir une ou plusieurs sous-étapes de détection. Ces sous-étapes peuvent par exemple être une détection d'image noire, une détection d'image fixe, d'image gelée, une détection de bandeau d'informations textuelles ou animée, une détection d'images animées, une détection d'arrêt du son, etc...
La figure 5 illustre une de ces détections. Une détection d'images de référence dans le contenu d'attente est ainsi illustrée. Pour un décodeur déterminé ou service de télévision déterminé, le contenu d'attente comporte les mêmes images ou séquences d'images. Ces images constituent des images de référence qui peuvent par exemple être enregistrées dans ce décodeur après une séquence d'apprentissage via des acquisitions vidéo. Cette séquence d'apprentissage est effectuée avant la phase d'analyse du contenu. Ainsi les images de référence Im.Irl à Im.Irn telles qu'illustrée en figure 5 en 501 sont enregistrées. In order to detect these different waiting contents, a step of detecting information of the waiting content is performed. This step may contain one or more detection sub-steps. These sub-steps may for example be black image detection, still image detection, frozen image, textual or animated information strip detection, motion picture detection, stop detection. sound, etc ... Figure 5 illustrates one of these detections. A detection of reference images in the waiting content is thus illustrated. For a specific decoder or determined television service, the waiting content includes the same images or sequences of images. These images constitute reference images that can for example be recorded in this decoder after a training sequence via video acquisitions. This learning sequence is performed before the content analysis phase. Thus reference images Im.Irl to Im.Irn as illustrated in FIG. 5 at 501 are recorded.
La détection de ces images de référence dans le contenu d'attente s'effectue par une comparaison entre ces images de référence et les images de la séquence d'attente affichée. Cette comparaison peut s'effectuer sur tout ou partie de l'image affichée, notamment pour éviter la zone d'apparition du bandeau d'informations. Un niveau de tolérance sur la luminance et la chrominance des images comparées est appliqué. The detection of these reference images in the waiting content is performed by a comparison between these reference images and the images of the waiting sequence displayed. This comparison can be done on all or part of the displayed image, in particular to avoid the area of appearance of the information banner. A tolerance level on the luminance and chrominance of the compared images is applied.
La formule suivante est par exemple appliquée pour comparer point par point l'image affichée et les images de référence. The following formula is for example applied to compare point by point the displayed image and the reference images.
Images capturées (x,y,t) - Image Irn(x,y) - 0 (1) Pour situer temporellement la position des images de référence dans la séquence d'attente capturée et affichée, la formule suivante est appliquée: Captured images (x, y, t) - Image Irn (x, y) - 0 (1) To temporally locate the position of the reference images in the captured and displayed waiting sequence, the following formula is applied:
TJPJJRn = T_L_Avideo + (1/ps x PJmgn) (2) où T_P_I_Rn correspond à l'instant où l'image de référence "n" est trouvée parmi les images capturées, PJmgn correspond à la position de l'image de référence "n" dans l'ensemble des images capturées, fps correspond à la fréquence de captation (par exemple 50 ou 60Hz), TJ_A_video correspond à l'instant de démarrage de l'acquisition vidéo.
T_P_I_Rm correspond au temps où l'image de référence "m" est trouvée parmi les images capturées. Cette image m correspond à la dernière image de référence trouvée. TJPJJRn = T_L_Avideo + (1 / ps x PJmgn) (2) where T_P_I_Rn corresponds to the moment when the reference image "n" is found among the captured images, PJmgn corresponds to the position of the reference image "n "in the set of captured images, fps corresponds to the capture frequency (for example 50 or 60 Hz), TJ_A_video corresponds to the start time of the video acquisition. T_P_I_Rm is the time when the reference image "m" is found among the captured images. This image m corresponds to the last reference image found.
Dans l'hypothèse où une ou plusieurs images ("Im. " à "Im.Irn") existent habituellement dans l'enchaînement du contenu d'attente et que les images de référence ne sont pas toutes retrouvées sur la période d'analyse de la séquence capturée, on peut considérer qu'il n'existe pas d'images de références dans la séquence capturée. Dans ce cas de figure, la note d'acceptabilité du temps de zapping, ne pourra pas être déterminée. Assuming that one or more images ("Im" to "Im.Irn") usually exist in the sequence of waiting contents and that the reference images are not all found over the analysis period of the captured sequence, we can consider that there are no reference images in the captured sequence. In this case, the note of acceptability of the zapping time can not be determined.
Dans l'illustration de la figure 5, on compare les images de référence avec les images capturées en 502 et 503 pour définir les images présentes dans le contenu d'attente entre les instants T_P_I_Rn et T_P_I_Rm. In the illustration of FIG. 5, the reference images are compared with the images captured at 502 and 503 to define the images present in the waiting content between the instants T_P_I_Rn and T_P_I_Rm.
Dans le cas où une détection d'image de référence est réalisée (sortie O en 503), cette information est gardée en mémoire pour choisir le bon modèle paramétrique à l'étape 206 de la figure 2. In the case where a reference image detection is performed (output O at 503), this information is kept in memory to select the right parametric model in step 206 of FIG.
Dans le cas où aucune image de référence n'est détectée dans le contenu d'attente ou que la séquence normalement prévue n'est pas toute retrouvée (sortie N en 503), cela veut dire que le contenu d'attente n'est pas constitué de ces images. On ne peut pas choisir à ce stade de modèle paramétrique adapté au contenu d'attente. Une autre détection d'informations (Detect.+1) sur ce contenu d'attente sera alors à mettre en œuvre pour trouver sa composition et sélectionner le bon modèle paramétrique. In the case where no reference image is detected in the waiting content or the normally expected sequence is not found again (output N in 503), this means that the waiting content is not consisting of these images. At this stage, it is not possible to choose a parametric model adapted to the waiting content. Another detection of information (Detect + 1) on this waiting content will then be implemented to find its composition and select the right parametric model.
Une autre détection possible sur le contenu d'attente est celle de la perte de fluidité du flux vidéo. Cette détection a pour but de vérifier si l'enchaînement vidéo s'effectue sur une ou plusieurs fréquences d'image stables ou non. La détection de fluidité doit s'effectuer avant la commande de changement de
chaîne. La détection est lancée avant l'instant T_C_C_1 pour savoir s'il existe une perte de fluidité vidéo sur le programme existant, jusqu'à l'arrivée du nouveau programme. Another possible detection on the waiting content is that of the loss of fluidity of the video stream. This detection is intended to verify whether the video sequence is performed on one or more stable or stable image rate. The fluidity detection must take place before the change of control command chain. The detection is started before the instant T_C_C_1 to see if there is a loss of video fluidity on the existing program, until the arrival of the new program.
La durée d'analyse de la détection vidéo peut-être égale à D_A_Vidéo. La détection de perte de fluidité sera effectuée sur les images de la chaîne en cours et sur les images de la nouvelle chaîne demandée. Afin de bien prédire une perte de fluidité éventuelle, il faut que le nombre d'images de la chaîne courante capturée soit supérieure ou égale au nombre d'image sur une période d'une seconde (soit l'inverse de la fréquence image). Par exemple, si le nombre d'image en régime établit est de 25 images par seconde, il faut capturer au moins 25 images sur la chaîne courante. The scan time of the video detection may be equal to D_A_Video. The loss of fluency detection will be performed on the images of the current channel and on the images of the new requested channel. In order to predict a possible loss of fluidity, the number of images of the current captured string must be greater than or equal to the number of images over a period of one second (ie the inverse of the image frequency). For example, if the frame rate is 25 frames per second, you must capture at least 25 frames on the current channel.
Le raisonnement est identique pour les images de la chaîne B. Les images des chaînes A et B peuvent parfois être entrecoupées d'images d'attente avec ou sans la présence d'un logo animé, d'un logo fixe ou d'informations liées au nom de la chaîne et du programme associé. Cette recherche est effectuée par la détection d'images de référence ou par la détection de logos fixes ou animés. The reasoning is identical for the images of the chain B. The images of the chains A and B can sometimes be interspersed with images of waiting with or without the presence of an animated logo, a fixed logo or related information. in the name of the channel and the associated program. This search is carried out by the detection of reference images or by the detection of fixed or animated logos.
La perte de fluidité est donc liée à la présence d'un gel momentané. Le gel d'image est détecté en calculant si la dérivée des niveaux luminance et de chrominance par rapport au temps est nulle, selon les équations suivantes : The loss of fluidity is therefore related to the presence of a momentary gel. The image freeze is detected by calculating whether the derivative of the luminance and chrominance levels with respect to time is zero, according to the following equations:
Image chaîneA (x,y,t)— Image chaîne A (x,y,t+I ) =0. (3) StringA (x, y, t) - String A (x, y, t + I) = 0. (3)
Image chaîneB (x,y,t) - Image chaîne B (x,y,t+I) =0. (4) StringB (x, y, t) - Image string B (x, y, t + I) = 0. (4)
Un autre exemple de détection d'informations sur le contenu d'attente est illustré en référence à la figure 6. Sur cette figure, les échantillons audio de la chaîne A sont illustrés à partir du démarrage de l'acquisition audio T_L_A_audio. L'instant de début de zapping est représenté sur cette figure par T_P_I_Am. A partir de cet
instant, les échantillons d'attente sonore sont représentés en ContAudio 1 et ContAudio n. Another example of detecting information on the waiting content is illustrated with reference to FIG. 6. In this figure, the audio samples of the channel A are illustrated from the start of the audio acquisition T_L_A_audio. The instant of start of zapping is represented in this figure by T_P_I_Am. From this moment, the samples of sound waiting are represented in ContAudio 1 and ContAudio n.
Lorsque le temps de zapping est révolu, les échantillons audio de la chaîne B sont disponibles. When the zapping time is over, the audio samples of the B channel are available.
Pour mesurer la perte de niveau sonore des échantillons sonore ou l'arrêt du son ("mute" en anglais) du contenu d'attente, une mesure de comparaison à un seuil audio (Sax) est effectuée sur N échantillons sonores. On peut en effet considérer qu'il y a coupure du son lorsque la détection des N échantillons inférieur à un seuil est supérieure à un temps prédéterminé, par exemple 30ms. Ce temps correspond aussi à un nombre d'échantillons M. To measure the sound level loss of the sound samples or the mute of the waiting content, a measurement of comparison to an audio threshold (Sax) is performed on N sound samples. It can indeed be considered that there is a mute when the detection of N samples less than a threshold is greater than a predetermined time, for example 30ms. This time also corresponds to a number of samples M.
La formule suivante est alors appliquée pour détecter l'instant de non présence du son et donc de début du temps de zapping: The following formula is then applied to detect the instant of non-presence of the sound and therefore the beginning of the zapping time:
T_P_I_ARn = T_L_A_a dio + Mx( l/fréquence d'échantillonnage audio ) (5) où M correspond au nombre d'échantillons au bout duquel le son est arrêté. T_P_I_ARm correspond au temps où le niveau sonore repasse au dessus du seuil audio Sax, c'est à dire que l'on détecte N échantillons supérieurs au seuil sur une période supérieure à une durée déterminée, par exemple 30ms. T_P_I_ARn = T_L_A_a dio + Mx (l / audio sampling frequency) (5) where M is the number of samples after which the sound is stopped. T_P_I_ARm corresponds to the time when the sound level returns above the Sax audio threshold, that is to say that N samples greater than the threshold are detected over a period greater than a predetermined duration, for example 30ms.
Pour une détection de bandeau d'informations du contenu d'attente, une méthode telle que décrite en référence à la figure 5 peut être utilisée avec une localisation spatiale sur une zone de l'image. For an information banner detection of the waiting content, a method as described with reference to FIG. 5 may be used with a spatial location on an area of the image.
On peut également détecter l'apparition de logos ou d'images animées sur le contenu d'attente en localisant la comparaison d'images de référence à une zone bien déterminée de l'affichage. On peut ainsi définir les instants d'apparition du logo et de disparition de ce même logo.
Avec ces informations sur le contenu audio et vidéo du contenu d'attente, il est possible de choisir les modèles paramétriques adaptés à ce type de contenu et au temps d'attente mesuré. One can also detect the appearance of logos or moving images on the waiting content by locating the comparison of reference images to a specific area of the display. It is thus possible to define the instants of appearance of the logo and the disappearance of this same logo. With this information on the audio and video content of the waiting content, it is possible to choose the parametric models adapted to this type of content and to the measured waiting time.
Pour cela, la détermination des modèles paramétriques s'effectue par apprentissage à partir d'une série de tests subjectifs effectués auprès d'un panel d'utilisateurs testant différents contenus d'attente et différents temps de zapping. For this, the parametric models are determined by learning from a series of subjective tests carried out with a panel of users testing different waiting contents and different zapping times.
Ainsi, les modèles paramétriques sont définis à la fois en fonction du temps de zapping entre deux scènes audiovisuelles mais aussi en prenant en compte des informations sur le contenu d'attente affiché entre ces deux scènes. Thus, the parametric models are defined both as a function of the zapping time between two audiovisual scenes but also by taking into account information on the waiting content displayed between these two scenes.
D'une façon générale, un modèle paramétrique prenant en compte ces deux éléments est de la forme suivante: In a general way, a parametric model taking into account these two elements is of the following form:
Q=100/(l+(a DZ)-b) (6) Q = 100 / (1 + (a DZ) -b ) (6)
Avec Q, la note d'acceptabilité, DZ, le temps de zapping mesuré et a et b, les coefficients à déterminer en fonction des contenus d'attente. With Q, the acceptability score, DZ, the zapping time measured and a and b, the coefficients to be determined according to the waiting contents.
Le coefficient a est par exemple compris entre 1000 et 4000 et le coefficient b est compris entre 4 et 10. The coefficient a is for example between 1000 and 4000 and the coefficient b is between 4 and 10.
Des exemples particuliers de modèles paramétriques, avec des coefficients a et b déterminés en fonction du contenu d'attente, sont illustrés en référence aux figures 7a et 7b. Particular examples of parametric models, with coefficients a and b determined according to the waiting content, are illustrated with reference to FIGS. 7a and 7b.
Dans le cas où le contenu d'attente est une image noire sans aucun enchaînement vidéo et que le son n'est pas présent, les moments de fin de détection des images de référence (ici, image noire) (T_P_I_Rm sur la figure 5) et les moments de fin de détection d'absence de son {T_P_I_Arm sur la figure 6), sont sensiblement équivalents. In the case where the waiting content is a black image without any video sequence and the sound is not present, the end times of detection of the reference images (here, black image) (T_P_I_Rm in FIG. 5) and the end times of detection of absence of sound {T_P_I_Arm in Figure 6), are substantially equivalent.
La durée de zapping est alors déterminée comme suit: The duration of zapping is then determined as follows:
DZ=T_PJ_Rm - T_C_C_1 (7)
L'acceptabilité du temps de zapping pour ce type de contenu d'attente est définie par le modèle paramétrique suivant:
DZ = T_PJ_Rm - T_C_C_1 (7) The acceptability of the zapping time for this type of waiting content is defined by the following parametric model:
Q représente ici la note d'acceptabilité du temps de zapping. Elle est exprimée en pourcentage. Here Q represents the acceptability score of the zapping time. It is expressed as a percentage.
La figure 7a et la figure 7b illustrent graphiquement ce modèle paramétrique en fonction du temps de zapping mesuré. FIG. 7a and FIG. 7b graphically illustrate this parametric model as a function of the measured zapping time.
Dans le cas où le contenu d'attente est une image gelée sans aucun enchaînement vidéo et que le son n'est pas présent, la durée de zapping est déterminée comme à l'équation (7). L'instant de fin de détection de l'image gelée correspondant au moment où les équations (3) et (4) ne sont plus vérifiées. In the case where the waiting content is a frozen image without any video link and the sound is not present, the zapping duration is determined as in equation (7). The end of detection of the frozen image corresponding to the moment when the equations (3) and (4) are no longer verified.
L'acceptabilité du temps de zapping pour ce type de contenu d'attente est définie par le modèle paramétrique suivant:
The acceptability of the zapping time for this type of waiting content is defined by the following parametric model:
Q représente ici la note d'acceptabilité du temps de zapping. Elle est exprimée en pourcentage. Here Q represents the acceptability score of the zapping time. It is expressed as a percentage.
La figure 7b illustre graphiquement ce modèle paramétrique, en fonction du temps de zapping mesuré. Figure 7b graphically illustrates this parametric model, as a function of measured zapping time.
Dans le cas où le contenu d'attente est un logo animé affiché par exemple sur une image noire et que le son n'est pas présent, les moments de fin de détection des images de référence (ici, image noire) (T_P_I_Rm sur la figure 5) et les moments de fin de détection d'absence de son (T_PJ._Arm sur la figure 6), sont sensiblement équivalents. Les moments de détection de début d'affichage du logo animé et de fin d'affichage sont en effet compris entre ces deux moments de début de détection de l'image noire T_P_I_Rn et de fin de détection de l'image noire T_P_I_Rm,
La durée de zapping est alors déterminée de la même façon qu'à l'équationIn the case where the waiting content is an animated logo displayed for example on a black image and the sound is not present, the end times of detection of the reference images (here, black image) (T_P_I_Rm on the FIG. 5) and the end of detection moments of absence of sound (T_PJ._Arm in FIG. 6) are substantially equivalent. The moments of detection of the beginning of display of the animated logo and the end of display are in fact between these two moments of beginning of detection of the black image T_P_I_Rn and the end of detection of the black image T_P_I_Rm, The duration of zapping is then determined in the same way as the equation
(7). (7).
L'acceptabilité du temps de zapping pour ce type de contenu d'attente est définie par le modèle paramétrique suivant:
The acceptability of the zapping time for this type of waiting content is defined by the following parametric model:
La figure 7a illustre graphiquement ce modèle paramétrique en fonction du temps de zapping mesuré. Figure 7a graphically illustrates this parametric model as a function of measured zapping time.
Ces modèles paramétriques sont des exemples non exhaustifs de modèles qui caractérisent les contenus d'attente. De nombreux modèles peuvent ainsi être déterminés que ce soit pour des contenus ne comportant qu'un type d'information affiché que pour des contenus qui comportent des enchaînements de plusieurs informations affichées. These parametric models are non-exhaustive examples of models that characterize waiting contents. Many models can thus be determined for content containing only one type of information displayed as for content that includes sequences of several information displayed.
De même, les modèles pris en exemple ici sont déterminés en fonction du temps total de zapping. D'autres modèles peuvent aussi être exprimés en fonction de temps intermédiaires d'affichage des différentes informations du contenu d'attente. In the same way, the models taken as an example here are determined according to the total time of zapping. Other models may also be expressed as a function of intermediate times of display of the different information of the waiting content.
La figure 8 représente un exemple d'un dispositif de détermination d'une note d'acceptabilité. Ce dispositif, comporte un processeur PROC coopérant avec un bloc mémoire BM comportant une mémoire de stockage et/ou de travail MEM. FIG. 8 represents an example of a device for determining an acceptability score. This device comprises a PROC processor cooperating with a memory block BM having a memory storage and / or working MEM.
Le bloc mémoire peut avantageusement comporter un programme informatique comportant des instructions de code pour la mise en œuvre des étapes du procédé de détermination d'une note d'acceptabilité au sens de l'invention, lorsque ces instructions sont exécutées par le processeur PROC, et notamment la mesure du temps de zapping entre une première scène audiovisuelle et une deuxième scène audiovisuelle suite à une action de zapping et la prise en compte d'au moins une information sur le contenu d'attente affiché entre la première et la deuxième scène audiovisuelle.
Typiquement, la description de la figure 2 reprend les étapes d'un algorithme d'un tel programme informatique. Le programme informatique peut également être stocké sur un support mémoire lisible par un lecteur du dispositif ou téléchargeable dans l'espace mémoire de ce dispositif. The memory block may advantageously comprise a computer program comprising code instructions for implementing the steps of the method of determining a score of acceptability in the sense of the invention, when these instructions are executed by the processor PROC, and in particular measuring the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action and taking into account at least one information on the waiting content displayed between the first and the second audiovisual scene. Typically, the description of FIG. 2 repeats the steps of an algorithm of such a computer program. The computer program may also be stored on a memory medium readable by a reader of the device or downloadable in the memory space of this device.
Le dispositif comporte un module d'entrée (E) apte à recevoir un signal audio The device comprises an input module (E) able to receive an audio signal
(A) et vidéo (V) ainsi que les informations de commande de zapping (Zap.). Ces informations proviennent soit d'un décodeur ou lecteur externe, soit d'un module interne lorsque le dispositif est intégré dans un tel décodeur ou lecteur. (A) and video (V) as well as zapping control information (Zap.). This information comes either from a decoder or external reader, or from an internal module when the device is integrated in such a decoder or reader.
Le dispositif comporte un module de sortie (S) apte à transmettre une note d'acceptabilité Q à un réseau de communication ou autre dispositif de transmission d'informations.
The device comprises an output module (S) capable of transmitting an acceptability note Q to a communication network or other information transmission device.
Claims
1. Procédé de détermination d'une note d'acceptabilité (Q) d'un temps de zapping à partir d'une mesure (E201) du temps de zapping entre une première scène audiovisuelle (Sc.l) et une deuxième scène audiovisuelle (Sc.2) suite à une action de zapping (E200), caractérisé en ce qu'il comporte les étapes suivantes: A method for determining an acceptability score (Q) of a zapping time from a measurement (E201) of the zapping time between a first audiovisual scene (Sc.l) and a second audiovisual scene ( Sc.2) following a zapping action (E200), characterized in that it comprises the following steps:
- détection (E202) d'informations du contenu d'attente affiché entre la première scène audiovisuelle et la deuxième scène audiovisuelle; - detecting (E202) information of the waiting content displayed between the first audiovisual scene and the second audiovisual scene;
- sélection (E206) modèle paramétrique parmi une pluralité de modèles paramétriques mémorisés en fonction des informations détectées et du temps mesuré; parametric model selection (E206) among a plurality of parametric models stored according to the detected information and the measured time;
- détermination (E207) d'une note d'acceptabilité issue du modèle paramétrique sélectionné. determination (E207) of an acceptability score from the selected parametric model.
2. Procédé selon la revendication I, caractérisé en ce que la détection d'informations affichées comporte une ou plusieurs étapes de détection du groupe suivant: 2. Method according to claim 1, characterized in that the detection of displayed information comprises one or more detection steps of the following group:
- détection d'image fixe sur tout ou partie de l'affichage, - fixed image detection on all or part of the display,
- détection d'image noire, - black image detection,
- détection d'image gelée de la première ou de la deuxième scène audiovisuelle, - frozen image detection of the first or second audiovisual scene,
- détection d'un bandeau d'informations textuelles, detection of a banner of text information,
- détection d'images animées, - motion picture detection,
- détection d'absence de son. - detection of absence of sound.
3. Procédé selon la revendication 1, caractérisé en ce qu'il comporte en outre une mesure des temps d'affichage entre différentes informations détectées, les temps mesurés étant utilisés pour la sélection du modèle paramétrique. 3. Method according to claim 1, characterized in that it further comprises a measurement of the display times between different detected information, the measured times being used for the selection of the parametric model.
4. Procédé selon la revendication 1, caractérisé en ce que les modèles paramétriques sont déterminés par apprentissage, à partir de mesures de temps de zapping et d'informations sur les contenus d'attente. 4. Method according to claim 1, characterized in that the parametric models are determined by learning from measurements of zapping time and information on the waiting contents.
5. Dispositif de détermination d'une note d'acceptabilité du temps de zapping comportant un module de mesure du temps de zapping entre une première scène audiovisuelle et une deuxième scène audiovisuelle suite à une action de zapping, caractérisé en ce qu'il comporte en outre un module d'obtention d'au moins une information sur le contenu d'attente affiché entre la première et la deuxième scène audiovisuelle pour la détermination de la note d'acceptabilité du temps de zapping. 5. Device for determining a note of acceptability of the zapping time comprising a module for measuring the zapping time between a first audiovisual scene and a second audiovisual scene following a zapping action, characterized in that it comprises in in addition to a module for obtaining at least one information on the waiting content displayed between the first and the second audiovisual scene for determining the acceptability score of the zapping time.
6 Décodeur audio/vidéo comportant un dispositif selon la revendication 5. 6 Audio / video decoder comprising a device according to claim 5.
7. Programme informatique comportant des instructions de code pour la mise en œuvre d'un procédé de contrôle conforme à l'une des revendications 1 à 4, lorsque celles-ci sont exécutées par un processeur. Computer program comprising code instructions for the implementation of a checking method according to one of claims 1 to 4, when these are executed by a processor.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0959247 | 2009-12-18 | ||
FR0959247 | 2009-12-18 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2011073559A1 true WO2011073559A1 (en) | 2011-06-23 |
Family
ID=42260329
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/FR2010/052697 WO2011073559A1 (en) | 2009-12-18 | 2010-12-13 | Device and method for determining an acceptability score for zapping time |
Country Status (1)
Country | Link |
---|---|
WO (1) | WO2011073559A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002073534A2 (en) * | 2001-03-09 | 2002-09-19 | Sarnoff Corporation | Spatio-temporal channel for images |
WO2005032145A1 (en) * | 2003-08-29 | 2005-04-07 | Nielsen Media Research, Inc. | Audio based methods and apparatus for detecting a channel change event |
KR20080000862A (en) * | 2006-06-28 | 2008-01-03 | 주식회사 케이티 | Channel change time measurement apparatus and method for internet protocol television |
US20080244637A1 (en) * | 2007-03-28 | 2008-10-02 | Sony Corporation | Obtaining metadata program information during channel changes |
-
2010
- 2010-12-13 WO PCT/FR2010/052697 patent/WO2011073559A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002073534A2 (en) * | 2001-03-09 | 2002-09-19 | Sarnoff Corporation | Spatio-temporal channel for images |
WO2005032145A1 (en) * | 2003-08-29 | 2005-04-07 | Nielsen Media Research, Inc. | Audio based methods and apparatus for detecting a channel change event |
KR20080000862A (en) * | 2006-06-28 | 2008-01-03 | 주식회사 케이티 | Channel change time measurement apparatus and method for internet protocol television |
US20080244637A1 (en) * | 2007-03-28 | 2008-10-02 | Sony Corporation | Obtaining metadata program information during channel changes |
Non-Patent Citations (1)
Title |
---|
GODANA B E ET AL: "Impact of Advertisements during Channel Zapping on Quality of Experience", NETWORKING AND SERVICES, 2009. ICNS '09. FIFTH INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 20 April 2009 (2009-04-20), pages 249 - 254, XP031461375, ISBN: 978-1-4244-3688-0 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114584849B (en) | Video quality evaluation method, device, electronic equipment and computer storage medium | |
Duanmu et al. | A quality-of-experience index for streaming video | |
EP3829182B1 (en) | Method and system for automatic user quality-of-experience measurement of streaming video | |
KR101464398B1 (en) | Method and system for video quality assessment | |
US10541894B2 (en) | Method for assessing the perceived quality of adaptive video streaming | |
Leszczuk et al. | Recent developments in visual quality monitoring by key performance indicators | |
US20060242667A1 (en) | Ad monitoring and indication | |
US20080198247A1 (en) | Image capturing apparatus, image capturing method, and computer program product | |
CN110999286B (en) | Techniques for detecting media playback errors | |
JP2013246836A (en) | Video detection device and defective video frame detection method | |
US20160373816A1 (en) | Automation testing apparatus | |
CN109729429A (en) | Video broadcasting method, device, equipment and medium | |
Borer | A model of jerkiness for temporal impairments in video transmission | |
CN110958448B (en) | Video quality evaluation method, device, medium and terminal | |
Li et al. | Quantifying the influence of devices on Quality of Experience for Video streaming | |
WO2011073559A1 (en) | Device and method for determining an acceptability score for zapping time | |
CN111818338A (en) | Abnormal display detection method, device, equipment and medium | |
Zach et al. | On use of crowdsourcing for H. 264/AVC and H. 265/HEVC video quality evaluation | |
CN115834952A (en) | Video frame rate detection method and device based on visual perception | |
EP3292692A1 (en) | Method for setting the level of definition of the images of a multimedia programme | |
CN112954485A (en) | Method and system for evaluating HLS video playing quality | |
Leszczuk et al. | Quality assessment in video surveillance | |
CN112995702A (en) | Method and system for judging video blockage based on quality monitoring probe | |
Birtić et al. | A tool for displaying and analysis of video artifacts | |
US20210029306A1 (en) | Magnification enhancement of video for visually impaired viewers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 10807466 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 10807466 Country of ref document: EP Kind code of ref document: A1 |