[go: up one dir, main page]

MX2012000724A - Metodo de estimacion e indicacion de interes social en medios a base de tiempo. - Google Patents

Metodo de estimacion e indicacion de interes social en medios a base de tiempo.

Info

Publication number
MX2012000724A
MX2012000724A MX2012000724A MX2012000724A MX2012000724A MX 2012000724 A MX2012000724 A MX 2012000724A MX 2012000724 A MX2012000724 A MX 2012000724A MX 2012000724 A MX2012000724 A MX 2012000724A MX 2012000724 A MX2012000724 A MX 2012000724A
Authority
MX
Mexico
Prior art keywords
event
events
social
time
social media
Prior art date
Application number
MX2012000724A
Other languages
English (en)
Inventor
Michael Ben Fleischman
Deb Kumar Roy
Original Assignee
Bluefin Lab Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bluefin Lab Inc filed Critical Bluefin Lab Inc
Publication of MX2012000724A publication Critical patent/MX2012000724A/es

Links

Classifications

    • G06Q10/40
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24573Query processing with adaptation to user needs using data annotations, e.g. user-defined metadata
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/26Visual data mining; Browsing structured data
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/52User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail for supporting social networking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • H04N21/4826End-user interface for program selection using recommendation lists, e.g. of programs or channels sorted out according to their score
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Library & Information Science (AREA)
  • Strategic Management (AREA)
  • Finance (AREA)
  • Development Economics (AREA)
  • Accounting & Taxation (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Operations Research (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

Se describe un método de estimación e indicación de interés social en medios a base de tiempo. Los ítems de contenido de medios sociales son mapeados a eventos de medios a base de tiempo relevantes. Estos mapeos pueden ser usados como base para múltiples aplicaciones, tales como clasificación de resultados de búsqueda para medios a base de tiempo, recomendaciones automáticas para medios a base de tiempo, predicción de interés de audiencia para compra/planeación de medios y estimación de interés social en los medios a base de tiempo. Interés social en segmentos de medios a base de tiempo (por ejemplo, flujos y grabaciones de video y audio) es estimado por medio de un proceso de ingestión e integración de datos. El proceso de estimación determina el interés social en eventos específicos representados como segmentos en medios a base de tiempo, tales como reproducciones particulares en eventos deportivos, escenas en un espectáculo de televisión o anuncios en un bloque de publicidad. Los valores estimativos resultantes de interés social pueden también ser mostrados gráficamente.

Description

METODO DE ESTIMACION E INDICACION DE INTERES SOCIAL EN MEDIOS A BASE DE TIEMPO ANTECEDENTES DE LA INVENCIÓN La presente es concerniente en general con el uso de medios sociales para estimar el interés en eventos de medios y en particular con la agregación de items de contenidos de medios sociales y referencias a los eventos de medios en los mismos, para estimar el interés social en medios a base de tiempo .
Los servicios de medios sociales en linea, tales como sitios de redes sociales, motores de búsqueda, agregadores de noticias, blogs y los semejantes proveen un medio ambiente rico para que los usuarios comenten en eventos de interés y se comuniquen con otros usuarios. Los items de contenido contribuidos por los usuarios de estos servicios de medios sociales frecuentemente incluyen referencias a eventos que aparecen en los medios a base de tiempo tales como espectáculos de televisión, reportes de noticias, eventos deportivos, películas, ejecuciones de concierto y los semejantes. Sin embargo, aunque los ítems de contenido hace referencia a los medios a base de tiempo, los ítems de contenidos de medios social por sí mismos comúnmente están aislados de los eventós y medios a base de tiempo en los cuales aquellos eventos ocurren.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Los Items de contenido de medio social y referencias a eventos que ocurren en los mismos están alineados con1 los eventos de medio a base de tiempo que describen. Estos mapeos pueden ser usados como la base para múltiples aplicaciones, tal como clasificación de resultados de búsqueda para medios a base de tiempo, recomendaciones automáticas para medios a base de tiempo, predicción de interés de audiencia para compra/planeación de medios y estimación de interés social en los medios a base de tiempo. El interés social en los segmentos de medios a base de tiempo (por ejemplo, flujos y grabaciones de video y audio) es estimado por medio de un proceso de ingestión e integración de datos. El proceso de estimación i determina el interés social en segmentos específicos de los medios a. base de tiempo, tales como juegos particulares en un evento deportivo, escenas en un espectáculo de televisión, o etapas en un video instruccional . El interés social en un evento dado es determinado al agregar ítems de contenido de medios sociales con puntuaciones de confianza que indican la probabilidad de que los ítems de contenido se refieran al evento dado.
Para un evento que aparece en medios a base de tiempo, tal evento puede tener haber sido identificado ¡ por segmentación de los medios a base de tiempo, los ítems de contenido de medios sociales son identificados como potencialmente relevantes al evento. La probabilidad de que el ítem de contenido sea relevante al evento de medios a base de tiempo es determinada para . cada ítem de contenido de medios sociales y una puntuación de confianza que reflejan la probabilidad que es asignada al ítem de contenido. Los ítems de contenido con probabilidades más altas son alineados con el evento, agregados y almacenados. Los ítems de contenido agregados son asociados con una puntuación agregada para el evento de medios a base de tiempo, en donde la puntuación agregada es un valor estimativo del nivel de interés social en el evento de medios a base de tiempo. El nivel estimado de interés social también puede ser mostrado gráficamente. Los aspectos y ventajas descritos en esta breve descripción de la invención y la siguiente descripción detallada no son completamente inclusivos. Muchos aspectos y ventajas adicionales serán evidentes para aquel de habilidad ordinaria en el arte en vista de las figuras, especificación y reivindicaciones de la presente.
BREVE DESCRIPCIÓN DE LAS FIGURAS La Figura 1 ilustra el medio ambiente de cómputo de una modalidad de un sistema para asociar ítems de contenido de medios sociales con eventos de medios a base de tiempo y determinar el interés social en eventos basados en las asociaciones resultantes.
La Figura 2 es un diagrama de bloques de una modalidad de un proveedor de información de interés social.
La Figura 3 es un diagrama conceptual que ilustra la alineación/anotación de video/metadatos y procesos de alineación de medios/eventos sociales a un alto nivel de acuerdo con una modalidad.
La Figura 3A es un diagrama de flujo que ilustra una modalidad de un método para asociar ítems de contenido de medios sociales con eventos de medios a base de tiempo y un método relacionado para determinar el interés social en, los eventos en base a las asociaciones resultantes.
La Figura 4 modalidad de un proces La Figura 5 modalidad de un proces La Figura 6 modalidad de un proces La Figura 7 modalidad de un proces Las Figuras de calor de interés social para una pluralidad de eventos correspondientes a una serie de segmentos de tiempo cronológicos en un medio a base de tiempo.
Las Figuras 9A-9C muestran tres modalidades de interfases de usuario de un sistema de estimación de interés social .
Las Figuras 10A y 10B . muestran dos modalidades de interfases de usuario de un sistema de estimación de interés social que muestra una vista de sentimiento.
Las Figuras 11A-11C . muestran tres modalidades de interfases de usuario de un sistema de estimación de interés social que muestra un vista filtrada.
La Figura 12A muestra una modalidad de una interfase de usuario de un sistema de estimación de interés social que muestra una vista sin detallar enfocada.
La Figura 12B muestra una modalidad de interfase de usuario de un sistema de estimación de interés social t que muestra una vista detallada enfocada.
Las Figuras 13A-D muestran todavía otra modalidad de una interfase de usuario que muestra mapas de calor de interés social que muestran niveles de interés social para una pluralidad de eventos correspondientes con una serie de segmentos de tiempo cronológicos en un medio a base de tiempo.
Las figuras ilustran varias modalidades de la presente invención por propósitos de ilustración solamente. Aquel de habilidad en el arte reconocerá fácilmente de la siguiente discusión que modalidades alternativas de las estructuras y métodos ilustrados en la presente pueden , ser empleados sin desviarse de los principios de la invención descrita en la presente.
DESCRIPCION DETALLADA La Figura 1 ilustra el medio ambiente de cómputo 100 para una modalidad de un sistema 130 para asociar ítems de contenido de medios sociales y referencias a eventos en1 los mismos con eventos de medios a base de tiempo y determinar el interés social en los eventos en base a las asociaciones resultantes .
El medio ambiente 100 incluye fuentes de medios sociales 110, fuentes de de tiempo 120, el proveedor de información de 130, una red 140 y dispositivos de cliente 150.
Las fuentes de medios sociales 110 incluyen redes sociales, blogs, medios de noticias, forums, grupos de usuarios, etc. Estas fuentes proveen en general a una pluralidad de usuarios con la habilidad de comunicarse e interactuar con otros usuarios de la fuente. Los usuarios pueden comúnmente contribuir a varios ítems de contenido (por ejemplo, posts, videos, fotos, enlaces, actualizaciones de estatus, entradas de blogs, tweets y los semejantes), que se pueden referir a eventos de medios y se pueden acoplar en I discusiones, juegos, eventos en línea y otros servicios participativos .
Las fuentes de medios a base de tiempo 120 incluyen difusores, proveedores de contenido directo, anunciantes y cualesquier otros proveedores de tercera parte de contenido de medios a base de tiempo. Estas fuentes 120 comúnmente publican contenido tales como programas de televisión, videos, películas, series, grabaciones de audio y los semejantes.
El proveedor de información de interés social 130 provee un sistema para asociar ítems de contenido de médios sociales y referencias a eventos en los mismos con eventos de medios a base de tiempo y determinar el interés social en los eventos en base a las asociaciones resultantes y es descrito además en conjunción con la Figura 2. I La red 140 puede comprender cualquier combinación de redes de área local y/o redes de área amplia, Internet, o una o más intraredes, utilizando tanto sistemas de comunicación cableados como inalámbricos.
Los dispositivos de cliente 150 comprenden dispositivos de cómputo que pueden recibir entrada de un usuario y pueden transmitir y recibir datos vía la red 140. Por ejemplo, los dispositivos de cliente 150 pueden ser una computadora de escritorio, una computadora portátil, un teléfono inteligente, un asistente digital personal (PDA), o cualquier otro dispositivo que incluya capacidades de comunicación de datos y funcionalidad de cómputo, i, Un dispositivo de cliente 150 está configurado para comunicarse con las fuentes de medios sociales 110 y el sistema' de proveedor de información de interés social 130 vía la red 140.
La Figura 2 es un diagrama de bloques de una modalidad de un proveedor de información de interés social 130. La modalidad del proveedor de información de interés social 130 mostrada en la Figura 2 es un sistema de computadora que incluye un servidor web 200 y API asociado 202, un motor de ontologia de dominio 205, un identificador de autor 210, un extractor de subtítulos 215, un motor de segmentación de evento 220, un motor de extracción de elementos 225, un motor de alineación de metadatos 230, un motor de anotación 235, un motor de extracción de elementos comparativos 240, un motor de eventos/alineación de medios 245, un estimador de interés social 250, un motor de interfase de usuario 255, ontologias de dominio 257, un almacén de contenido de medios sociales 260, un almacén de autor de medios sociales 263, un almacén de estadísticas de uso 265, un almacén de subtítulos 267, un almacén de multimedia 270, un almacén de metadatos de eventos 273, un almacén de mapeo 275, un almacén de eventos de video 280, un almacén de interés social 285 y un almacén de eventos anotados 290. Este sistema puede ser implementado utilizando una sola computadora, o una red de computadoras, incluyendo implementaciones de computadora a base de nube. Las computadoras son preferiblemente computadoras clase servidor que incluyen una o más CPU de alto desempeño, de 1G o más de memoria principal, también como 500 GB a 2 Tb de almacenamiento persistente que se puede leer por computadora y que funcionan con un sistema operativo tal como LINUX o variantes del mismo. Las operaciones del sistema 130 como se describen pueden ser controladas ya sea por medio de elementos de programación ó por medio de programas de computadora instalados en el almacenamiento de computadora y ejecutados por los procesadores de tales servidores para efectuar las funciones descritas en la presente. El sistema 130 incluye otros elementos físicos necesarios para las operaciones descritas en la presente, incluyendo interfases y protocolos de red, sistemas de seguridad, dispositivos de entrada para entrada de datos y dispositivos de salida para mostrar, imprimir, u otras presentaciones de datos; estos y otros componentes convencionales no son mostrados para no oscurecer los detalles relevantes. 1 Como se indica anteriormente, el sistema 130 comprende un número de "motores", que se refieren a un lógico computacional para proveer la funcionalidad especificada, Un motor puede ser implementado en elementos físicos, elementos fijos y/o elementos de programación. Un motor puede algunas veces ser denominado equivalentemente como un "módulo" o un "servidor". Se comprenderá que los componentes nombrados i representan una modalidad de la presente invención y otras modalidades pueden incluir otros componentes. Además, otras modalidades pueden carecer de los componentes descritos en la presente y/o distribuir la funcionalidad descrita entre los componentes de una manera diferente. Adicionalmente, las funcionalidades atribuidas a más de un componente pueden ser incorporadas en un solo componente. En donde los motores descritos en la presente son implementados como elementos de programación, el motor puede ser implementado como un programa autónomo, pero puede también ser implementado por medió de otros medios, por ejemplo como parte de un programa más grande, como una pluralidad de programas separados, o como una o más bibliotecas en enlazadas estática o dinámicamente. ; En cualguiera de estas implementaciones de elementos de programación, los motores son almacenados en los dispositivos de almacenamiento persistentes gue se pueden leer por computadora del sistema 130, cargados en la memoria y ejecutados por uno o más procesadores de las computadoras1 del sistema. La operación del sistema 130 y sus varios componentes será descrita adicionalmente más adelante con respecto a la Figura 2 y las figuras restantes. Como se hará evidente, las varias operaciones de procesamiento de datos descritas en la presente son suficientemente complejas y toman mucho tiempo para reguerir la operación de un sistema de computadora ; tal como el sistema 130.
El servidor web 200 enlaza el proveedor de información de interés social 130 a los dispositivos de cliente 150, las fuentes de medios a base de tiempo 120 y las fuentes de medios sociales 110 vía la red 140 y es un medio para hacer esto. El servidor web 200 da servicio a páginas web, también como otro contenido relacionado con web, tal como Java, Flash, XML y asi sucesivamente. El servidor web 200 puede incluir un servidor de correo u otra funcionalidad de mensajería para recibir y enrutar mensajes entre el proveedor de información de interés social 130 y los dispositivos de cliente 150.
El API 202, en conjunción con el servidor web 200, permite a una o más entidades externas acceder a información del proveedor de información de interés social 130. El servidor web 200 puede también permitir que entidades externas envíen información al proveedor de información de interés social 130 que llama al API 202. Por ejemplo, una entidad externa envía una petición de API al proveedor de información de interés social 130 vía la red 140 y el servidor web 200 recibe la petición de API. El servidor web 200 procesa la petición al llamar a un API 202 asociado con la petición de API para generar una respuesta apropiada, que el servidor web 200 comunica a la entidad externa vía la red 140. El API 202 puede ser usado por el proveedor de información de interés social 130 para recibir elementos extraídos y otras entradas a la alineación de medios sociales/eventos 330 y procesos de estimación de interés social 340 de terceras partes (tales como entidades que proveen los medios a base de tiempo) , que luego serían usados por el proveedor de información de interés social 130 en aquellos procesos.
El registrador de acción 215 es capaz de recibir comunicaciones del servidor web 210 acerca de las acciones del usuario y/o encender/apagar el sistema de redes sociales 130. El registrador de acciones 215 puebla el registro de acciones 230 con información acerca de acciones del usuario, permitiendo que el sistema de redes sociales 130 de seguimiento a los varios actos emprendidos por sus usuarios con el sistema de red social 130 y fuera del sistema de redes sociales 130. Cualquier acto que un usuario particular hace con respecto al otro usuario es asociado con cada perfil de usuario, por medio de información mantenida en el registro de actos 230 o en una base de datos similar u otro depósito de datos. Ejemplos de actos emprendidos por un usuario en la red social 130 que son identificados y almacenados pueden incluir, por ejemplo, agregar una conexión a otro usuario, enviar un mensaje a otro usuario, leer un mensaje de.
El motor de ontologia de dominio 205 provee ontologias de dominio que indican vocabularios específicos a diferentes dominios de medios para almacenamiento en las ontologias de dominio 257 y es un medio para hacer esto.; Las ontologias de ¦ dominio 257 codifican información relevante a dominios específicos y son benéficas, puesto que los apodos, caló, siglas y otros términos acortados comúnmente son usados en ciertos dominios. Las ontologias de dominio 257 pueden ser organizadas erárquicamente como gráficas, en donde cada nodo en la gráfica representa un concepto (por ejemplo, "juego de fútbol", "juego de anotación") y cada borde representa una relación entre conceptos (por ejemplo, "tipo de") . > Las instancias de conceptos (por ejemplo, un juego de touchdown especifico de un juego de fútbol especifico) pueden también ser codificadas en la oritología de dominio, también como vocabularios que proveen terminología alternativa para nodos de concepto (por ejemplo, "TD" para el concepto "touchdown") . Las ontologías de dominio 257 pueden ser diseñadas en base al conocimiento de expertos humanos o generados por la máquina. Las ontologías de dominio son usadas para filtración inicial de anexiones de medios sociales y en el proceso de alineación de medios sociales/eventos. Una lista ejemplar de dominios de interés social para los cuales los medios a base de tiempo1 son usados de acuerdo con la presente invención incluyen difusión de video como programas de televisión, tales como deportes, noticias, televisión por episodios, espectáculos de realidad/eventos en directo, películas y publicidad en conjunción con cualquiera de estos dominios. Dominios más específicos también son posibles, por ejemplo, juegos, de fútbol, noticias de entretenimiento, programas de televisiones de realidad específicos, etc., cada uno de los cuales puede tener su propia ontología específica del dominio. El motor de ontología de dominio 205 está configurado para filtrar los segmentos de tiempo de acuerdo con un término de búsqueda, en donde la pantalla gráfica muestra solamente un subconjunto de la serie de segmentos de tiempo cronológicos correspondientes al término de búsqueda.
El identificador de autor 210 identifica el autor o proveedor de cada item de contenido de medio social, por ejemplo tal como se provee al proveedor de información de interés social 130 por las fuentes de medios sociales 110 con los ítems de contenido y es un medio para hacer esto. Información adicional acerca de los autores puede ser extraída de los ítems de contenido en sí mismos, por ejemplo, tal como están almacenados almacén de contenido de medios sociales 260 o extraídos de otras fuentes externas. La información de autor es almacenada en el almacén de autor de medios sociales 263.
El extractor de subtítulos 215 extrae datos de subtítulo de los medios a base de tiempo y es un medio para hacer esto. Los datos de subtítulos comúnmente pueden ser extraídos de fuentes de video de difusión u otras fuentes codificadas con subtítulos utilizando elementos de programación de fuente abierta tal como CCExtractor disponible de SourceForge.net. Para medios a base de tiempo no codificados con datos de subtítulos, métodos imperfectos tales como reconocimiento de habla automática pueden ser usados para capturar y convertir los datos de audio en una corriente de texto comparable con un texto de subtítulos. Esto se puede hacer, por ejemplo, utilizando elementos de programación de fuentes abiertas tales como Sphinx 3 disponible vía SourceForge.net. Una vez que los subtítulos son ingeridos, son preferiblemente alineados al habla en un video. Varios métodos de alineación son conocidos en el arte. Uno de tales métodos es descrito en Hauptmann, A. and itbrock, M., Story Segmentation and Detection of Commercials in Broadcast News Video, ADL-98 Advances in Digital Librarles Conference, Santa Barbara, CA (April 1998), que usa programación dinámica para alinear palabras en la corriente de subtítulos a la salida de un reconocedor de habla puesto en operación sobre la pista de audio del video. La información de subtítulos es almacenada en almacén de subtítulos 267.
El medio de almacenamiento de multimedio 270 guarda varias formas de medios a base de tiempo. Los medios a base de tiempo incluyen cualesquier datos que cambian significativamente con respecto al tiempo. Ejemplos incluyen y no están limitados a videos (por ejemplo, programas de televisión o porciones de los mismos, películas o porciones de las mismas) grabaciones de audio, secuencias de MIDI, animaciones y combinaciones de los mismos. Los medios a base de tiempo pueden ser obtenidos de una variedad de fuentes, tales como medios de almacenamiento locales o de red, también como directamente de dispositivos de capturas tales como cámaras, micrófonos y difusiones en directo.
Se anticipa que otros tipos de medios a base de tiempo dentro del alcance de la invención serán desarrollados en el futuro (por ejemplo, medios 3D, presentaciones holográficas, medios inmersivos y asi sucesivamente) .
Un motor de segmentación de eventos 220 segmenta medios a base de tiempo en segmentos semánticamente significativos correspondientes a porciones discretas o "eventos" y es un medio para hacer esto. Diferentes tipos de medios pueden tener diferentes tipos de eventos que son reconocidos como parte de un proceso de segmentación de eventos de video. Por ejemplo, un programa de televisión o película puede tener escenas y tomas instantáneas; un evento deportivo puede tener eventos altamente granulares (por ejemplo, juegos, pases, atrapadas, aciertos, tiros, encestadas, goles y los semejantes) también como eventos menos granulares (por ejemplo, lados, bajadas, entradas y los semejantes) . Un nuevo programa puede tener eventos tales como historias, entrevistas, tomas instantáneas, comentarios y los semejantes. El procesó de segmentación de eventos de video incluye tres componentes principales de acuerdo con una modalidad: detección de frontera de toma, detección de eventos y determinación de frontera. Estos componentes para segmentación de eventos pueden variar por dominio. La salida de la segmentación de eventos de video es un conjunto de eventos de video segmentados que es almacenado en el elemento de almacenamiento de eventos de video 280.
El motor de extracción de elementos 225 convierte eventos de medios a base de tiempo segmentados recuperados del elemento de almacenamiento de eventos de video 280 a representaciones de vector de elementos para alinear los eventos con metadatos y es un medio para hacer esto. Los elementos pueden incluir propiedades de imagen y audio y pueden variar por dominio. Los tipos de elementos pueden incluir, pero no están limitados a, transformada de elementos de escala variante (SIFT) , elementos robustos acelerados (SURF) , histograma de forma a base de energía local (LESH) , histograma de color, e histograma de orientación de ubicación de gradiente (GLOH) .
El motor de alineación de metadatos 230 alinea segmentos de eventos de video con información semánticamente significativa con respecto al evento o tópico acerca del cual es el evento y es un medio para hacer esto. El motor de alineación de metadatos 230 utiliza instancias de metadatos del elemento de almacenamiento de metadatos de eventos 273. Una instancia de metadatos son los metadatos para un solo evento, esto es, una sola pieza de metadatos. El motor de anotación 235 anota los segmentos con los metadatos y es un medio para hacer esto. Las instancias de metadatos pueden incluir anotaciones automáticas de elementos de contenido de bajo nivel bajo, por ejemplo, elementos de imagen o elementos . de contenido, anotaciones manuales con descripciones de texto, o ambos. Los metadatos pueden ser representados como descripciones de texto o eventos de medios a base de tiempo y/o representaciones de vector de elementos extraídos de ejemplos de eventos. Las anotaciones son almacenadas en el elemento de almacenamiento de eventos anotados 290.
El motor de extracción de elementos comparativos 240 convierte un evento anotado y un ítem de contenido de medio social correspondiente a una representación de vecto de elementos y es un medio para hacer esto. Los tres tipos principales de elementos extraídos por el motor de extracción de elementos comparativos 240 son elementos de contenido, elementos geo-temporales y elementos de autoridad. El motor de alineación de medios/eventos 245 alinea el ítem de contenido de medio social 610 y evento anotado 530 utilizando los elementos extraídos 620 y es un medio para hacer esto. El motor de alineación de medios/eventos 245 emite un mapeo 1 de eventos/medios sociales anotados y puntuación de confianza asociada al elemento de almacenamiento de mapeo 275.
La siguiente es una lista no extensa de tipos de medios que pueden ser asociados con los medios a base de tiempo: audio de comentadores de, o participantes del evento o i tópico (por ejemplo, anunciantes en televisión o radio) y transcripción de texto de los mismos (generados manual o automáticamente), metadatos relacionados con eventos (por ejemplo, recetas, instrucciones, guiones, etc.), datos estadísticos (por ejemplo, estadísticas deportivas o corrientes de datos financieros) , artículos de noticias, ítems de contenido de medios sociales y estadísticas de uso de medios (por ejemplo, comportamiento de usuario tal como visualización, rebobinado, pausa, etc.). Los ítems de contenido de medios sociales incluyen ítems de contenido de medios sociales de forma larga y forma corta tales como elementos pegados, videos, fotos, enlaces, actualizaciones de estatus, entradas de blogs, tweets y los semejantes de varias fuentes de medios sociales y fuentes de noticias de corriente principal que son almacenados en el elemento de almacenamiento de contenido de medio social 260. En general, las redes sociales permiten que sus usuarios publiquen ítems de contenido a base de texto a otros miembros de su red, tales ítems de contenido pueden ser abiertos y visualizables por el público por medio de interfases de programa de aplicación abierta.
Comúnmente, los ítems de contenido de medio social son de dos variedades: medios a base de texto estáticos y medios a base de texto dinámicos. Los medios a base de texto estáticos describen una clase grande de información en Internet (por ejemplo, blogs, artículos de noticias, páginas web, etc.). Esta información cambia solo mínimamente una vez pegada (esto es, es relativamente estática) y está compuesta completamente de palabras (esto es, está a base de texto) . Los medios a base de texto dinámicos se refieren a cualquiera de un conjunto de "alimentaciones de datos" compuestos de elementos pegados por el usuario cortos, f ecuentemente actualizados a sitios web de redes sociales que frecuentemente describen los estados y opiniones de sus autores.
Para algunos dominios, se pueden ingerir estadísticas de uso ya sea solas o generadas de los medios a base de tiempo en el medio de almacenamiento de multimedios 270 y almacenados en el medio de almacenamiento de estadísticas de uso 265. Las estadísticas de uso pueden incluir información con respecto a como los datos de multimedia fueron consumidos, por ejemplo, el número de vistas, duraciones de vistas, número de pausas, códigos de tiempo a los cuales una pausa ocurre, etc. Las estadísticas pueden ser agregadas con respecto a diferentes poblaciones, tales como por tipo de usuario, ubicación, tipo de uso, tipo de medios y así sucesivamente. Las estadísticas pueden representar medios, modos, medianas, varianzas, proporciones, velocidades, medidas de población y los semej antes .
El estimador de interés social 250 agrega información del elemento de almacenamiento de eventos anotados 290 y el elemento de almacenamiento de mapeo 275 para estimar el interés social en un evento de medios dado utilizando una puntuación de interés social y es un medio para hacer esto. La puntuación de interés social es estimada por el estimador de interés social 250 al realizar ciclos a través de todos (o seleccionado) eventos anotados y por cada evento, tomar una suma ponderada de las puntuaciones de confianza para cada item de contenido de medio social que excede un umbral dado. La puntuación de interés social resultante es almacenada en el elemento de almacenamiento de interés social 285.
El motor de interfase de usuario 255 convierte el interés social a un formato para exhibición en una interfase de usuario, por ejemplo, para ilustrar mapas de calor de interés social como se muestra en las Figuras 8A-13D y es un medio para hacer esto. El motor de interfase de usuario 255 permite que los dispositivos de cliente 150 interactúen con las interfases de usuario proporcionando la puntuación de interés social. ! El motor de interfase de usuario 255 provee una indicación o pantalla de interfase de usuario con tres áreas principales: (1) un área de mapa de calor de interés social para mostrar un mapa de calor de interés social que muestra los niveles de interés social para una pluralidad de eventos correspondiente con una serie de segmentos de tiempo cronológicos, (2) un área de exhibición de medios, distinguida visualmente de y mostrada concurrentemente con el área de mapa de calor de interés social, para mostrar un evento seleccionado del mapa de calor de interés social y (3) un área de exhibición de medios sociales, distinguida visualmente de y mostrada concurrentemente con el mapa de calor de interés social y áreas de exhibición de medios, para mostrar ítems de contenido de medio social para un evento seleccionado.
Diferentes tipos de- eventos pueden ser mostrados, de tal manera que los diferentes tipos de eventos son cada uno visualmente distintos dentro del área de mapa de calor de interés social, por ejemplo, .para un juego de fútbol en difusión de televisión, que muestran eventos correspondientes a juegos de juego de una manera (por ejemplo, un primer color) y eventos correspondientes a comerciales entre juegos del juego de una manera diferente (por ejemplo, un segundo color) .
Además, el motor de interfase de usuario 255 puede i proveer funcionalidad adicional para la interfase de usuario. Por ejemplo, un campo de interfase de usuario para filtrar los segmentos de tiempo de acuerdo con una palabra clave o término de búsqueda, en donde el área de mapa de calor de interés social muestra luego solo un subconjunto de segmentos de tiempo que coinciden con el término de búsqueda. Véase Figura HA, número de referencia 1105. En otro ejemplo, la interfase de usuario puede permitir la exhibición separada de sentimiento positivo o negativo entre ítems de contenido agregados para cada segmento de evento. Una primera porción del segmento puede corresponder a un sentimiento positivo, una segunda porción del segmento puede corresponder a un ojo segmento negativo y ambos segmentos pueden ser mostrados, de tal manera que son distinguidos visualmente entre sí. Véase Figura 10A, número de referencia 1010, 1012. En algunas modalidades, una porción adicional del segmento puede corresponder al sentimiento neutro o sentimiento incierto. El motor de ontologia de dominio 205 puede proveer los aspectos de filtración para la interfase de usuario y el estimador de interés social 250 puede proporcionar el análisis de sentimiento.
Mapeo de ítems de Contenido Social a Medios a Base de Tiempo La Figura 3 es un diagrama conceptual que ilustra la alineación/anotación de video/metadatos 320 y procesos de alineación de medios sociales/eventos 330 a un alto nivel de acuerdo con una modalidad. Comenzando con las instancias de metadatos 307 y eventos en medios a base de tiempo 301 como entrada, se forman los eventos anotados 309. Como se muestra, los medios a base de tiempo (TBM) 301 incluyen múltiples segmentos (por ejemplo 1-M) 303, que contienen eventos en los medios a base de tiempo, como se describe en la presente. El proceso de alineación/alineación de video/metadatos 320 alinea una o más instancias de metadatos (1-N) 307 con los eventos para formar eventos anotados 309, como se describe además en conjunción con la Figura 5. El proceso de alineación de medios sociales/eventos 330 alinea o "mapea", los eventos anotados 309 de la alineación/anotación de video/metadatos 320 a uno o'' más ítems de contenido de medio social (A-O) 311, como se describe adicionalmente en conjunción con la Figura 6. Nótese que en ambos procesos 320, 330, las varias alineaciones son de uno a uno, de muchas a uno y/o muchas a muchas. Asi, un ítem de contenido de medio social dado 311 puede ser mapeado a múltiples eventos anotados diferentes 309 y un evento anotado 309 puede ser mapeado a múltiples ítems de contenido de medio social diferentes 311. Una vez asi mapeados, las relaciones entre ítems de contenido y eventos pueden ser cuantificados para estimar el interés social, como se explica además posteriormente en la presente.
La Figura 3A es un diagrama de flujo gue ilustra una modalidad de un método para alinear ítems de contenido de medio social (y referencias a eventos en los mismos) con eventos de medios a base de tiempo y un método relacionado para determinar el interés social en los eventos en base a las asociaciones resultantes.
En general, los ítems de contenido del medio social son candidatos para alineación con los eventos de medios a base de tiempo y se determina una puntuación de confianza para cada indicador de una probabilidad de que el ítem de contenido es relevante al evento. En base en las puntuaciones de confianza, los ítems de contenido pueden ser alineados con el evento y las alineaciones son recolectadas en un medio de almacenamiento de datos. Las puntuaciones de confianza son agregadas para producir una puntuación agregada y se establece un nivel de interés social en el evento en base a la puntuación agregada.
Como etapa preliminar en el método, múltiples corrientes de datos son ingeridos 300 en el proveedor de información de interés social 130 para procesamiento. Los datos pueden ser recibidos con el proveedor de información de interés social 130 directamente de proveedores de contenido, o vía fuentes de medios sociales 110 o fuentes de medios a base de tiempo 120, por ejemplo, de alimentaciones de difusión de televisión, directamente de productores de. contenido y/o de otras terceras partes. En una modalidad, el servidor web 200 es un medio para ingestión 300 de los datos. Los tipos de datos pueden incluir, pero no están limitados a, medios a base de tiempo, datos de subtítulos, estadísticas, elementos pegados de medios sociales, medios de noticias de corriente principal y estadísticas de uso, tal como se describe anteriormente.
Los datos ingeridos son almacenados en medios de almacenamiento de datos específicos a uno o más tipos de datos que sirven como las fuentes de datos de entrada para los procesos primarios del método de la Figura 3A (cada : uno mostrado en negritas) . Por ejemplo, los datos de medios a base de tiempo son almacenados en el medio de almacenamiento de multimedia 270. Los medios a base de tiempo en el medio de almacenamiento de multimedia 270 pueden sufrir procesamiento adicional antes de ser usados en los métodos mostrados en las Figuras 3-7. Por ejemplo, datos de subtítulos pueden , ser extraídos de, o creados para 305, los medios a base de tiempo, por ejemplo, por el extractor de subtítulos 215. Además, para algunos dominios, se pueden ingerir estadísticas de uso ya sea solas o generadas de los medios a base de tiempo en el elemento de almacenamiento de multimedia 270 y almacenados en el medio del almacenamiento de estadísticas de uso 265. Además, los metadatos de eventos asociados con los multimedios son almacenados en el medio de almacenamiento de metadatos de eventos 273, los ítems de contenido de medio social como se describe en la presente son almacenados en el medio de almacenamiento de contenido de medio social 260, la información acerca de autores de los ítems de contenido de medio social son almacenados en el medio de almacenamiento de autor de medio social 263 y ontologías de dominio que indican, por ejemplo, vocabularios específicos a diferentes tipos de medios, son almacenadas en las ontologías de dominio 257.
Como resultado de la ingestión a la que se hace referencia en la presente, el medio de almacenamiento de multimedios 270 incluye varias formas de medios a base de tiempo. Los medios a base de tiempo pueden ser de varios tipos, como se describe en conjunción con la Figura 2.
Como se muestra en la Figura 3A, hay tres procesos principales involucrados en el método de acuerdo con la modalidad ilustrada: segmentación de eventos de video 310, alineación de metadatos de video 320 y alineación/mapeo de medios/eventos sociales 330. Además, un proceso opcional, estimación de interés social 340, puede ser incluido en el método. Cada uno de estos procesos 310-340 son descritos posteriormente en la presente.
Segmentación de Evento de Video El primer proceso es una segmentación de evento de video 310, en el cual los medios a base de tiempo ¡ son segmentados en segmentos semánticamente significativos correspondientes a eventos discretos ilustrados en video. La entrada al proceso de segmentación de eventos de video 310 es una corriente de video (y/o audio) sin procesar que es recuperada del medio de almacenamiento de multimedio 270 de acuerdo con una modalidad y puede ser efectuado, por ejemplo, por el motor de segmentación de eventos 220, que es un medio para efectuar esta función.
El proceso de segmentación de evento de video 310 es dependiente del dominio a alguna extensión, por ejemplo, en video de eventos deportivos, los segmentos de eventos pueden ser igualados con jugadas individuales, mientras que en difusión de televisión, los segmentos de eventos pueden ser igualados con escenas individuales y anuncios de publicidad. Asi, los tipos de eventos y tamaño de segmentos pueden variar I en base al tipo de dominio y para algunos medios, por ejemplo, medios de formato corto tales como recortes de video : muy cortos, todo el recorte es tratado como un segmento. El sistema puede ser estar pre-configurado con información acerca de a cual el dominio el video pertenece. Esta configuración puede ser implementada manualmente en base a caso por caso, o en base a un horario precargado en base a la fuente de video y hora del día (utilizando, por ejemplo, una guia de programación de espectáculo de televisión de difusión) .
La segmentación puede ser obtenida vía anotación humana, métodos automatizados conocidos, o un procedimiento humano/automático híbrido en el cual fronteras de segmento automática son corregidas por anotadores humanos de acuerdo con varias modalidades. Un método automatizado es descrito por Fleischman, M. and Roy, D., Unsupervxsed Content-Based Indexing of Sports Video Retrieval, 9th ACM Workshop on Multimedia Information Retrieval (MIR) , Augsburg, Germany (Sept. 2007).
El proceso de segmentación de evento de video1 310 incluye tres componentes principales de acuerdo con una modalidad: detección de frontera de toma instantánea, detección de evento y determinación de frontera. Estos componentes pueden variar por dominio. Por ejemplo, para eventos deportivos un componente adicional puede corresponder a la clasificación de escena (por ejemplo, identificación de campo o estadio) .
La salida de la segmentación de evento de video 310 es un conjunto de eventos de video segmentados que ' son almacenados en el medio de almacenamiento de eventos de video 280. La segmentación de eventos de video 310 es descrita en detalle adicional en conjunción con la Figura 4.
Alineación/Ano-bación de Metadatos El siguiente proceso es alineación/anotación de metadatos 320, en el cual los segmentos de la segmentación de eventos de video 310 son anotados con información semánticamente significativa con respecto al evento que el segmento es relevante a, o ilustra. La entrada a; la alineación/anotación de metadatos 320 es un evento de video recuperado del elemento de almacenamiento de eventos de video 280 y metadatos del medio de almacenamiento de metadatos de eventos 273. Tales metadatos pueden incluir, pero no están limitados a: el tipo de evento que ocurre, los agentes involucrados en el evento, la ubicación del evento, la hora del i evento, los resultados/causas del evento, etc.
Como con la segmentación de eventos 310, el proceso de alineación/anotación de metadatos 320 es dependiente del dominio. Por ejemplo, en fútbol Americano, los metadatos para un evento pueden incluir tal como "Pasador: Tom Brady, Resultado: Touchdown, Receptor: Randy Moss", mientras que. los metadatos para un evento en una serie de televisión pueden incluir información tal como: "Agente: Jack Bauer, Ubicación: Casa Blanca, Hora: 3:15 pm" y para un anuncio, los metadatos pueden incluir información tal como "Marca: Walmart, Escena: el padre se viste como un payaso, Estado de animo: cómico". Como I! se ilustra en estos ejemplos, los metadatos pueden ser estructurados como tupios de pares <nombre, valor>.
Los metadatos incluyen texto y, para ciertos dominios, propiedades de imagen y audio de nivel más bajo.' Los metadatos pueden ser generados utilizando anotación humana : (por ejemplo, vía anotadores humanos que observan los eventos o muestras de los mismos) y, en ciertas dominios, pueden ser complementados con anotaciones automáticas para uso en el proceso de alineación (por ejemplo, que describe propiedades de imagen y audio de nivel más bajo del evento tal como el número y duración de cada toma instantánea, histogramas de color promedio de cada toma instantánea, niveles de potencia del audio asociado, etc.)- L anotación es almacenada en el medio de almacenamiento de eventos anotados 290. ; La alineación/anotación de metadatos 320 incluye dos etapas de acuerdo con una modalidad: extracción de elementos de eventos y alineación de metadatos de video. La alineación/anotación de metadatos 320 es descrita en detalle adicional en conjunción con la Figura 5.
De acuerdo con otra modalidad, la ingestión de datos 300, segmentación de eventos de video 310 y alineación de metadatos de video 320 podrían ser efectuados por una entidad separada, tal como un proveedor de contenido o propietario,; por ejemplo, que no desea liberar el contenido a otros. En esta modalidad, el proveedor de información de interés social 130 proporcionaría elementos de programación, que incluyen módulos de elementos de programación y motores descritos en la presente, a la entidad separada para permitirles efectuar estos procesos en los medios a base de tiempo sin procesar. Toda la entidad en respuesta podría proveer al proveedor de información de interés social 130 con los elementos extraídos y otras entradas a la alineación de medios/evento sociales 330 y procesos de estimación de interés social 340, que luego serían usados por el proveedor de información de interés social 130 en aquellos procesos. Estos intercambios de datos podrían tomar lugar vía una interfase de programación de aplicación (API) provista por el proveedor de información de interés social 130 y expuestos a la entidad separada, por ejemplo, vía el servidor web 200. El proveedor de información de interés social 130 calcularía luego la información de interés social y proveería a aquella de regreso a la entidad ya sea como datos o información mostrada, por ejemplo utilizando las interfases mostrada en las Figuras 8A-13D.
Alineación de Medios Sociales/Eventos La siguiente etapa es integrar los segmentos; de eventos de medios a base de tiempo anotados con ítems de contenido de medio social que se refieren a los eventos. La entrada a la alineación de medios/evento sociales 330; de acuerdo con una modalidad es un evento anotado recuperado del medio de almacenamiento de eventos anotados 290, un ítem de contenido de medio social recuperado del medio de almacenamiento de contenido de medio social 260, un ontologia de dominio recuperada de las ontologias de dominio 257 y opcionalmente información de autor acerca del autor del ítem de contenido de medio social recuperado del medio de almacenamiento de autor de medio social 263.
Desafortunadamente, los ítems de contenido de medio social frecuentemente son ambiguos en 'cuanto a si se refieren a un evento y si es así, a cual evento se refiere. Por ejemplo, un ítem de contenido de medio social simple, tal como la única palabra pegada "Touchdown!" se puede referir a un evento en un juego de fútbol, o puede ser usado como metáfora para un éxito en áreas no relacionadas con fútbol. Con el fin de tratar tales ambigüedades, la alineación de medios sociales/evento ! 330 determina una puntuación de confianza que un ítem de contenido de medio social se refiere a un evento específico. El método toma como entrada un solo ítem de contenido de medio social y un solo evento anotado y emite una puntuación que representa la confianza (esto es, probabilidad, probable) que el ítem de contenido de medio social es relevante al evento. Un ítem de contenido de medio social puede ser relevante a un evento al referirse al evento. La función de alineación de medios sociales/eventos 330 opera sobre elementos de los ítems de contenido de medio social individuales y eventos anotados y puede ser entrenada utilizando métodos de aprendizaje supervisados u optimizados manualmente. El motor de alineación de medios/eventos 245 es un medio para efectuar esta función.
La salida de alineación de medios sociales/eventos 330 es un mapeo entre un evento anotado y un ítem de contenido de medio social (y/o referencias a eventos en el mismo) y una puntuación de confianza asociada. El mapeo y puntuación de confianza son almacenados en un medio de almacenamiento de mapeo 275. El proceso de alineación de medios sociales/eventos 330 es descrito en detalle adicional en conjunción con la Figura 6.
Los mapeos emitidos por la alineación de medios sociales/eventos 330 son útiles en y por si mismos y pueden ser usados como la base para múltiples aplicaciones, tal como clasificar los resultados de búsqueda para medios a base de tiempo, recomendaciones automáticas para medios a base de tiempo, predicción de interés de audiencia para compra/planeación de medios y estimación de interés social como se describe adicionalmente más adelante en la presente.
Estimación de Interés Social Uno de los usos de los mapeos de medios/evéhtos sociales es la estimación de interés social en varios eventos. El interés social en un evento puede ser estimado al agregar la información reunida de los procesos descritos con respecto a la Figura 3A. La entrada a la estimación de interés social 340 es un evento anotado recuperado del medio de almacenamiento de eventos anotados 290 y el mapeo de medio social de eventos anotados recuperado del medio de almacenamiento de mapeo ¡275. Además, entradas del medio de almacenamiento de contenido de medio social 260 y el medio de almacenamiento de autor de medio social 263 pueden ser usadas como parte del proceso de ponderación. El estimador de interés social 250 es un medio para efectuar esta función.
La estimación de interés social 340 es obtenida para un evento anotado al realizar ciclos a través de todos los ítems de contenido de medio social asociados con aquel evento (como se indica por la presencia de un mapeo de medio i social/eventos anotado 630 (Figura 6) en el medio de almacenamiento de mapeo 275) y tomando una suma ponderada de las puntuaciones de confianza para cada ítem de contenido de medio social. En una modalidad, una suma ponderada de las puntuaciones de confianza es tomada para ítems de contenido de medio social que exceden un umbral. En otras modalidades, no se usa ningún umbral o una función con una "escala deslizante" de (puntuación, peso) en donde el peso es aplicado a la puntuación y luego agregado a la suma. El efecto de esta ponderación es que los eventos que están asociados con más ítems de contenido de medio social (y referencias a eventos en los mismos) se correlacionan con interés social estimado más alto. Además, el interés social de un evento es frecuentemente dependiente de la fuente, autor y/o sentimiento del ítem de contenido de medio social al que se refiere, como se describe además en conjunción con la función de ponderación 710 de la Figura 7.
La salida de la estimación de interés social 340 es una puntuación de interés social que es almacenada en el medio de almacenamiento de interés social 285. La estimación de interés social 340 es descrita en detalle adicional en conjunción con la Figura 7. Además, los resultados de la estimación de interés social 340 pueden ser mostrados a un usuario de un dispositivo de información de interés social 150, por ejemplo, utilizando un motor de interfase de usuario 255, como se describe en conjunción con las Figuras 8A-13D.
La puntuación de interés social puede ser usada como base para múltiples aplicaciones, tales como analíticas de datos, planeación de medios, clasificación de resultados de búsqueda para medios a base de tiempo, recomendaciones automáticas para medios a base de tiempo, navegación de datos de usuario final directos vía una interfase de usuario y predicción de interés de audiencia para media compra/planeación de medios para nombrar unos pocos.
Segmentación de Eventos La Figura 4 es un diagrama de flujo que ilustra; una modalidad de un proceso de segmentación de evento de video 310.
Como se describe en la Figura 3A, la segmentación de eventos de video 310 segmenta medios a base de tiempo en segmentos semánticamente significativos correspondientes a porciones de video discretas o "eventos", por ejemplo, vía el motor de segmentación de eventos 220, que es un medio para efectuar esta función.
La entrada al proceso de segmentación de eventos de video 310 es una corriente de video 405 del medio de almacenamiento multimedia 270. La segmentación de evento de video 310 incluye 3 fases: detección de frontera de toma 410, detección de eventos 420 y determinación de frontera de evento 430, cada uno de los cuales es descrita en mayor detalle posteriormente en la presente. La salida de la segmentación de evento de video 310 es un evento de video segmentado 435, que es almacenado en el medio de almacenamiento de evento de video 280.
Detección de Frontera de Toma La primera etapa en la segmentación es la detección de frontera de toma 410 para segmentos discretos (o "tomas") en un video. Las fronteras de toma son puntos de no continuidad en el video, por ejemplo, asociado con un cambio en el ángulo o escena de la cámara. Las fronteras de toma pueden ser determinadas al comparar histogramas de color de cuadros de video adyacentes y aplicar un umbral a aquella diferencia. Las fronteras de toma pueden ser determinadas que existen siempre que la diferencia en los histogramas de color de cuádros adyacente exceden este umbral. Muchas técnicas son conocidas en el arte para la detección de frontera de toma. Un algoritmo ejemplar es descrito en Tardini et al., S ot Detection and Motion Analysis for Automatic MPEG-7 Annotation of Sports Videos, 13th International Conference on Image Analysis and Processing (Nov. 2005). Otras técnicas de detección de frontera de toma 410 pueden ser usadas también, tal como usar elementos de movimiento. Otra técnica conocida es descrita en A. Jacobs, et al., Automatic shot boundary detection combining color, edge, and motion features of adjacent frames, Center for Computing Technologies, Bremen, Alemania (2004).
Detección de Evento La detección de evento 420 identifica la presencia de un evento en una corriente (de uno o más) de segmentos utilizando varios elementos correspondientes, por ejemplo, a la imagen, audio y/o movimiento de cámara para un segmento dado. Un clasificador que usa tales elementos puede ser optimizado manualmente o entrenado utilizando técnicas de aprendizaje de máquina tales como aquellas implementadas en el paquete de aprendizaje de máquina WEKA descrito en Witten, I. and Frank, E., Data Mining: Practical machine learning tools and techniques (2a Edición) , Morgan Kaufmann, San Francisco, CA (junio de 2005) . El proceso de detección de evento 420 detalla que muchos varían por dominio.
Los elementos de imagen son elementos generados de frames individuales en un video. Incluyen elementos de bajo nivel y elementos de nivel más alto en base a aquellos valores de píxel. Los elementos de imagen incluyen, pero no están limitados a, distribuciones de color, mediciones de textura, entropía, movimiento, detección de líneas, detección de caras, presencia de todos los cuadros negros, detección gráfica, proporción de aspecto y fronteras de toma.
Los elementos de habla y audio describen información extraída de las corrientes de audio y de subtítulos. Otros elementos están basados en la presencia de música, animación, habla excitada, silencio, detección de cambio de volumen, presencia/ausencia de subtítulos, etc. De acuerdo con una modalidad, estos elementos son detectados utilizando árboles de decisión reforzados. La clasificación opera en una secuencia de cuadros traslapantes (por ejemplo, superposición de 30 ms) extraído de la corriente de audio. Para cada cuadro, un vector de elementos es calculado utilizando coeficientes cepstrales de frecuencia de Mel (MFCC) , también como energía, el número de cruces de cero, entropía espectral y potencia relativa entre diferentes bandas de frecuencia. El clasificador es aplicado a cada cuadro, produciendo una secuencia de etiquetas de clase. Estas etiquetas son luego suavizadas utilizando un algoritmo de minimización de costo de programación dinámica, similar a aquellos usados en los modelos de arkov ocultos.
Además de elementos de audio, elementos pueden, ser extraídos de las palabras o frases habladas por los narradores y/o anunciadores. De una ontología específica de dominio 257, una lista predeterminada de palabras y frases es seleccionada y la corriente de habla es monitoreada en cuanto a la expresión de tales términos. Una representación de vector de elementos es creada en la cual el valor de cada elemento representa el número de veces que una palabra específica de la lista fue pronunciada. La presencia de tales términos en el vector de elementos se correlaciona con la presencia de un evento asociado con la lista predeterminada de palabras. Por ejemplo, la expresión de la frase "touchdown" está correlacionada con la presencia de un touchdown en video deportivo.
A diferencia de los elementos de imagen y audio, los elementos de movimiento de cámara representan información más precisa acerca de las acciones que ocurren en un video. La cámara actúa como un pedestal para el enfoque del observador. A medida que las acciones ocurren en un video, la cámara se mueve para seguirla; este movimiento de cámara así refleja las acciones mismas, proporcionando elementos informativos para la i identificación de evento. Como la detección de frontera de toma, hay varios métodos para detectar el movimiento de' la cámara en un video (esto es, la cantidad que efectúa tomas panorámicas de izquierda a derecha, se inclina hacia arriba y hacia abajo y hace acercamientos y alejamientos) . Un sistema ejemplar es descrito en Bouthemy, P., et al., A unified approach to shot change detection and camera mótion characterization, IEEE Trans, on Circuits and Systems for Video Technology, 9(7) (Oct. 1999); este sistema calcula el movimiento de la cámara utilizando los parámetros de un modelo de afinación bidimensional para ajustar cada par de cuadros secuenciales en un video. De acuerdo con una modalidad, se usa un modelo de Markov oculto de primer orden de 15 etapas, implementado con el Kit de Herramientas de Modelado Gráfico y luego la salida del dispositivo Bouthemy es emitida a una corriente de movimientos de cámara característicos agrupados (por ejemplo, movimientos conjuntos de 12 grupos de acercamiento rápido en tanto que se efectúa ligera toma panorámica a la izquierda) . Algunos dominios pueden usar métodos diferentes o adicionales de identificación de eventos. Por ejemplo, en fútbol americano, un factor adicional puede ser la clasificación de escenas. En clasificación de escenas, una vez que una frontera de toma es detectada se usa un clasificador de escena es usado para determinar si aquella toma está enfocada principalmente en una escena particular, por ejemplo, un campo de juego. Los cuadros individuales (llamados cuadros clave) son seleccionados desde dentro de las fronteras de toma y representados como un vector de elementos de bajo nivel que describen la distribución de color del cuadro clave, entropía, movimiento, etc. Se determina que una toma es de una escena particular si la mayoría de los cuadros muestréados están clasificados como aquella escena.
Determinación de Frontera de Evento Una vez que un segmento de video es determinado que contiene la presencia de un evento, las fronteras de inicio y finalización de aquel evento deben ser determinadas 430¡. En algunos casos, las fronteras de toma determinadas en 410 son valores estimativos del comienzo y final de un evento. Los valores estimativos pueden ser mejorados también al aprovechar elementos adicionales de las corrientes de video y audio para refinar adicionalmente las fronteras de segmentos de video. La determinación de frontera de eventos 430 puede ser efectuada utilizando un clasificador que puede ser optimizado manualmente o utilizando técnicas de aprendizaje supervisadas. El clasificador puede tomar decisiones en base a un conjunto de reglas aplicadas a una representación de vector de elementós de los datos. Los elementos usados para representar video se superponen con aquellos usados en los procesos previos. Los eventos que tienen puntos de inicio y final (o desplazamientos) y aquellas fronteras pueden ser determinadas en base a la presencia/ausencia de cuadros negros, fronteras de toma, cambios de proporción de aspecto, etc. y tienen una medida de confianza asociada con la segmentación. El resultado de la determinación de frontera de evento 430 (concluyendo la segmentación de eventos de video 410) es un evento (conjunto de) de video segmentado 435 que es almacenado en el medio de almacenamiento de eventos de video 280.
Metadatos Alineación/ Anotación La Figura 5 es un diagrama de flujo que ilustra una modalidad del proceso de alineación/anotación de metadatos 320. Como se describe en la Figura 3A, el proceso de alineación/anotación de metadatos 320 produce anotaciones de los segmentos de la segmentación de eventos de video 310, tales anotaciones incluyen información semánticamente significativa con respecto al evento o tópico acerca del cual es el segmento. La alineación/anotación de metadatos 320 incluye dos etapas: extracción de elementos de eventos 315 y alineación de metadatos de video 520.
Extracción de Eventos de Video Para cualquier evento de video dado que va a ser alineado con los metadatos, la primera etapa es convertir el evento de video a una representación de vector de elementos vía la extracción de elementos 315. El motor de extracción de elementos 225 es un medio para efectuar esta función. La entrada al proceso es un evento de video segmentado 435 recuperado del medio de almacenamiento de eventos de video 280. La salida de la. extracción de elementos de video 315 es una representación de elementos de eventos de video 510. Los elementos pueden ser idénticos a (o un subconjunto de las propiedades de imagen/audio discutidas anteriormente para eventos de video y almacenados en el medio de almacenamiento de metadatos de eventos 273 y pueden variar por dominio.
Alineación de Metadatos de Video La alineación de metadatos de video 520 toma ;como entrada la representación de vector de elementos 510 de un evento y una instancia de metadatos 505, definida anteriormente como metadatos correspondientes a un solo evento. El motor de alineación de metadatos 230 es un medio para efectuar esta función. Realiza ciclos a través de cada instancia de metadatos 505 en el medio de almacenamiento de metadatos de eventos 273 y usa una función de alineación para estimar la probabilidad de que un evento particular puede ser descrito por una instancia de metadatos particular para un evento. Como se describe anteriormente, las instancias de metadatos pueden incluir anotaciones automáticas de elementos de contenido de bajo nivel (por ejemplo, elementos de imagen o audio) , anotaciones manuales de descripciones de texto o ambos. Para dominios en los cuales los metadatos incluyen elementos de bajo nivel, la función de alineación puede ser una función de similaridad de cosigno .simple que compara la representación de elementos 510 del evento con las propiedades dé nivel bajo descritas en la instancia de metadatos 505. Para dominios en los cuales las instancias de metadatos no incluyen anotaciones automáticas de elementos de bajo nivel, el método de alineación de metadatos de video 520 puede emplear un modelo que codifica relaciones entre elementos de bajo nivel y texto descriptivo. Un modelo ejemplar es descrito en Fleischman, M. and Roy, D., Grounded Language Modeling or Automatic Speech Recognition of Sports Vídeo, Proceedings of the Association of Computational Linguistics (ACL) , Columbus, OH, pp. 121-129 (junio de 2008). Este método utiliza modelos de lenguaje básales que enlazan elementos visuales y de texto extraídos de un video a los i. términos de metadatos usados para describir un evento. Para los propósitos de este ejemplo, los modelos de lenguaje básales pueden ser estimados manualmente en base a los elementos visuales y de texto usados para segmentación de eventos, de los cuales la siguiente ecuación describe la probabilidad de que una anotación de metadatos particular describe un evento de video particular: p(metadatos \ Vid)— ? p(w \ v) wemetadalos vefid El modelo de lenguaje basal es usado para calcular la probabilidad que cada evento de video encontrado está asoqiado con cada anotación de metadatos generada por humanos.
Cuando todas las instancias de metadatos 505 en el medio de almacenamiento de metadatos de eventos 273 correspondiente con el evento han sido examinadas, si la alineación más probable 525 (esto es, alineación con la probabilidad o puntuación más alta) pasa un umbral, el evento de video asociado con la representación de elementos 510 es anotado con la instancia de metadatos 505 y el evento anotado resultante 530 es almacenado en un medio de almacenamiento de eventos anotados 290 junto con una puntuación que describe la confianza de la anotación. Si ningún evento pasa el umbral, el evento es marcado como no anotado. Con el fin de ajustar este umbral, un conjunto de resultados del proceso es anotado manualmente en dos categorías: resultados correctos y resultados incorrectos. Luego se puede usar validación cruzada para encontrar el umbral que maximiza la precisión/recuerdo1 del sistema sobre el conjunto de resultados anotado manualmente.
Alineación de Medios//Eventos Sociales La Figura 6 es un diagrama de flujo que ilustra una modalidad de un proceso de alineación de medios/eventos sociales 330. La alineación de medios/eventos sociales i 330 asocia (mapea) los segmentos de eventos de medio a base de tiempo anotados con ítems de contenido de medio social y referencias a los eventos en los ismos.
Filtración Como una etapa inicial y opcional, ocurre la etapa de filtración de medios sociales 605; las ontologias de dominio 257 son medios para efectuar esta función. Los ítems de contenido de medio social son filtrados con el fin de crear un conjunto de ítems de contenido candidato con una alta probabilidad de que son relevantes a un evento específico.; Los ítems de contenido pueden ser relevantes a un evento al incluir una referencia al evento.
En esta etapa opcional, antes de que los ítems de contenido de medio social sean integrados con eventos de video, un conjunto candidato de ítems de contenido es compilado en base a la probabilidad de que estos elementos pegados sean relevantes a los eventos, por ejemplo, al incluir por lo menos una referencia a un evento específico. El motor de extracción elementos comparativo 240 es un medio para efectuar esta función. En el más simple, este conjunto candidato de ítems de contenido puede ser el resultado de filtración 605 asociada con un marco de tiempo dado del evento en cuestión. Los filtros temporales frecuentemente son en general demasiado alejados ya que muchos ítems de contenido pueden co-ocurrir ¡solo coincidentalmente en el tiempo por un evento dado. Además, para difusión de televisión, por ejemplo, el incrementar el uso de grabadoras de video digital ha ampliado significativamente el marco de tiempo relevante para eventos.
Filtros adicionales 605 son aplicados en base a términos usados en el contenido de texto del ítem de contenido (por ejemplo, textos reales o texto extraído de subtítulos o audio) que también aparece en los metadatos para un evento y/o términos específico de dominio en las ontologías 257. Por ejemplo, el ítem de contenido de un elemento pegado de red social de "Touchdown Brady ! Vamos Patriotas" tiene una alta probabilidad de que se refiere a un evento en un juego de fútbol de los Patriotas debido al uso del nombre del jugador, nombre de equipo y nombre de juego y este ítem de contenido sería relevante para el evento. En otro ejemplo, un ítem de contenido de un elemento pegado de "Amo el comercial de Walmart" tiene una alta probabilidad de que se refiere a un evento de publicidad para Walmart debido al uso del nombre del almacén y el término "comercial" y sería así mismo relevante para este evento. Para efectuar este tipo de filtración, se usan términos de los metadatos de un evento también como aquellos términos específicos de dominio almacenados en la ontología 257.
Un ítem de contenido de medio social puede ser relevante a un evento sin incluir necesariamente una referencia textual directa al evento. Varios métodos de recuperación y puntuación de información pueden ser aplicados a los ítems de contenido para determinar la relevancia, en base a modelos de conjunto teóricos (por ejemplo, búsqueda Booleana), algebraicos (por ejemplo, modelos de espacio vectorial, redes neurales, análisis semántico latente), o modelos probabilisticos ; (por ejemplo, independencia binaria o modelo de lenguaje) y¡ los semej antes .
Los ítems de contenido de medio social que no pasan ciertos de estos filtros iniciales, por ejemplo, filtros temporales o filtros de contenido, son removidos del procesamiento adicional, reduciendo el número de mapeos que ocurren en las etapas posteriores. La salida de la filtración de medio social 605 es un medio de almacenamiento de contenido de medio social actualizado 260, que indica, para cada ítem de contenido, si aquel ítem de contenido fue filtrado por filtros temporales o filtros de contenido. Filtros adicionales se pueden aplicar en dominios adicionales.
Alineación/Mapeo La alineación de eventos de medios sociales/anotados 330 incluye un proceso de extracción de elementos 620 y una función de alineación 625. El proceso de extracción de elementos 620 convierte la entrada de un evento anotado 530 y un ítem de contenido de medio social 610 a una representación de vector de elementos, que es luego introducido a la función de alineación 625. El proceso de extracción de elementos 620 también puede recibir entrada del medio de almacenamiento de autor de medio social 263 y las ontologías de dominio 257. Los tres tipos principales de elementos extraídos en este proceso 620 son elementos de contenido 620c, elementos geo-temporales 620b y elementos de autoridad 620a. El motor de extracción de elementos comparativos 240 es un medio para efectuar 'esta función, que identifica una relación entre los elementos de eventos y elementos de medios sociales. La relación puede ser de co-presencia, correlación u otras relaciones comq se describen en la presente.
Los elementos de contenido 620c se refieren a información que co-ocurre en el contenido de los ítems de contenido de medio social y los metadatos para los eventos de video, por ejemplo, términos que existen tanto en el ítem de contenido como en los metadatos para el evento de video. Las ontologías de dominio 257 pueden ser usadas para expandir el conjunto de términos usados cuando se generan elementos de contenido .
Los elementos geo-temporales 620b se refieren a la diferencia en ubicación y tiempo en el cual los medios de entrada fueron generados desde un sitio asociado con el ítem de contenido de medio social acerca del evento. Tal información es útil ya que la relevancia del medio social a un evento es frecuentemente correlacionada inversamente con la distancia del evento (en tiempo y espacio) que el medio fue producido. En otras palabras, medios sociales relevantes a un evento son frecuentemente producidos durante o tan pronto después de aquel evento y algunas veces por gente en o cerca del evento : (por ejemplo, un evento deportivo) o expuestos al mismo (por ejemplo, dentro del área de difusión para un evento a base de televisión) . > Para eventos de video, la información geo-temporal puede ser determinada en base a la ubicación y/o zona horaria del evento o difusión del evento, el tiempo en que inició, el desplazamiento en el video que el inicio del evento es determinado, el canal en el cual fue difundido. Para medios sociales, la información geo-temporal puede ser parte del contenido del medio mismo (por ejemplo, una estampa de tiempo en una entrada de blog o actualización de estatus) o como metadatos de los medios o su autor.
Los elementos temporales describen la diferencia en tiempo entre cuando el ítem de contenido de medio social' fue creado desde el tiempo en que el evento en si mismo tomó lugar. En general, diferencias más pequeñas en tiempo de producción son indicadoras de alineaciones más confiables. Tales diferencias se pueden hacer pasar a través de una función sigmoide, de tal manera que a medida que la diferencia en tiempo se incrementa, la probabilidad de alineación disminuye, pero se estabiliza a un cierto punto. Los parámetros de esta función pueden ser ajustados en base a un conjunto de datos de verificación anotados. Los elementos espaciales describen la distancia del autor de la ubicación del ítem de contenido en relación con el área geográfica del evento o difusión. Las diferencias espaciales son menos indicadoras debido a que frecuentemente el comentario de la gente o eventos que toman lugar alejados de su ubicación. Una función sigmoide puede: ser usada para modelar esta relación también, aunque los parámetros son ajustados en base a datos retenidos diferentes.
Los elementos de autoridad 620a describen información relacionada con el autor del medio social y ayudan a incrementar la confianza de que un ítem de contenido de medio social se refiere a un evento de video. La probabilidad de que cualquier elemento pegado ambiguo se refiere a un evento particular es dependiente de la probabilidad previa que el autor pegaría acerca de un tipo de evento similar (por ejemplo, un juego de basketball para un autor que ha pegado contenido acerca de juegos de basketball previos) . La probabilidad previa puede ser aproximada en base a un número de elementos en los que se incluyen: el perfil de usuario auto-generado del autor (por ejemplo, menciones de una marca, equipo, etc.), los ítems de contenido previo del autor (por ejemplo, acerca de eventos similares o relacionados) y los amigos del autor (por ejemplo, sus contribuciones de contenido, perfiles, etc.). Estos elementos de probabilidad previa pueden ser usados como elementos para la función de mapeo.
La función de alineación 625 toma el conjunto de elementos extraídos 620a-c y emite un mapeo 630 y una puntuación de confianza 640 que representa la confianza que el ítem de contenido de medio social se refiere al evento de video. El motor de alineación de medios/eventos 245 es un medio para efectuar esta función. Para cada tipo de elemento 620a-c, una sub-función especifica de elementos genera una puntuación que indica si el ítem de contenido de medio social se refiere al evento anotado. Cada puntuación de la sub-función está basada solamente en la información extraída en aquel conjunto de elementos particular. Las puntuaciones para cada sub-función pueden luego ser combinados utilizando una suma ponderada, con el fin de emitir un mapeo 630 y una puntuación de confianza asociada 640, como se muestra a continuación para un evento x y un ítem de contenido de medio social y: align{feat (x,y) ) = [a · content (feat (x,y) ) ] + [ß ·geoTemp (feat (x,y) ) ] + (yauthor (feat (x,y) ) ] en donde a, ß y ? son los pesos respectivos aplicados a los tipos de elementos y align (feat (x,y) ) es la puntuación de confianza. Ambos de los pesos en la suma ponderada, también como las sub-funciones mismas pueden ser entrenadas utilizando métodos de aprendizaje supervisados, u optimizados manualmente. La salida de la función de alineación de medios/eventos sociales 330 es un mapeo entre un evento anotado y un ítem de contenido de medio social. Este mapeo, junto con una puntuación de confianza de valor real es almacenado en el medio' de almacenamiento de mapeo 275.
Estimación de Interés Social La Figura 7 es un diagrama de flujo que ilustra una modalidad de un proceso de estimación de interés social 340. El interés social en un evento puede ser estimado al agregar la información recolectada de la segmentación de evento de video 310, alineación de metadatos de video 320 y procesos de alineación de medios/eventos sociales 330. El estimador de interés social 250 es un medio para efectuar esta función.
La entrada al proceso de estimación de interés social 340 incluye un evento anotado 530 recuperado del elemento de almacenamiento de eventos anotados 290 y un mapeo de eventos/medios sociales anotados 620 recuperado del medió de almacenamiento de mapeo 275. Además, los datos del medio de almacenamiento de contenido de medio social 260 y medio de almacenamiento de autor de medio social 263 pueden ser usados para la función de ponderación 710.
Para cada uno de los tipos de medios, el interés social es estimado en base a un conteo ponderado de referencias a eventos particulares en cada ítem de contenido de medio social. Los ítems de contenido de medio social relevantes a un evento son indicadores de interés y al descubrir y agregar tales ítems de contenido y referencias a eventos de los mismos, se genera una puntuación de interés social que representa el nivel de interés social del evento en base a los ítems de contenido agregados.
Para un evento particular, el proceso de estimación de interés social 340 incluye el cálculo de una suma ponderada sobre todos los ítems de contenido de medio social que incluyen por lo menos una referencia a un evento. El cálculo procede al realizar ciclos a través de todos los ítems de contenido de medio social que se refieren a aquel evento (tal como se determina en el proceso de alineación de medios sociales/ eventos anotados 330 ) . Para cada ítem alineado a aquel evento, la puntuación de interés social para aquel evento es incrementada por un valor ponderado en base a los metadatos del ítem de contenido. Así, se puede considerar la puntuación de interés social de salida 720 como una puntuación agregada a través de las puntuaciones de confianza 640 para cada evento.
Estos pesos comúnmente pueden ser ajustados de cero a uno dependiendo de la configuración del sistema. Los pesos son multiplicativos y están basados en varios factores descritos a continuación: como pesos de contenido de medio social 710a, pesos a base de fuentes 710b, pesos a base de autor 710c y/o pesos a base de eventos 710d.
Los pesos de contenido de medio social 710a pueden ser usados en el proceso de estimación de interés social 340 en base por ejemplo, al sentimiento del medio que lo menciona.; Por ejemplo, las puntuaciones pueden ser ponderadas de tal manera que el interés es calculado en base solamente a elementos pegados que describen el sentimiento positivo hacia un evento (esto es, solamente elementos pegados de autores que expresan sentimiento positivo hacia el evento son incorporados en la suma ponderada) . El sentimiento expresado en un ítem de contenido de medio social puede ser identificado automáticamente utilizando un número de técnicas. Técnicas ejemplares son descritas en B. Pang and L. Lee, Opinión Mining and Sentiment Analysis, Foundations and Trends in Information Retrieval 2(1-2), pp. 1-135 (2008).
Se pueden usar pesos a base de fuente 710b en el proceso de estimación de interés social 340 en base a como (por ejemplo, en qué forma) un evento es mencionado. Se puede dar algunas fuentes un peso más alto si se determina que son más influencíales, como se mide por ejemplo por el tamaño de su audiencia (como se estima por ejemplo, por QuantCast Corporation, San Francisco, CA) o el número de enlaces entrantes al sitio fuente. Además, se puede dar a ciertas fuentes peso más alto con el fin de generar puntuaciones de interés social para comunidades de usuarios específicas.1 Por ejemplo, una puntuación de interés social puede ser calculada en base a solamente los ítems de contenido de medio social generados por fuentes de una tendencia política particular (por ejemplo, Republicano o Demócrata) al ajusfar los pesos a cero de todos los ítems de contenido con fuentes que no son predeterminadas por ser de aquella inclinación política particular (por ejemplo, en donde la inclinación política de una fuente es determinada por un experto humano o un clasificador de máquina entrenado) . ¡ Se pueden usar pesos a base de autor 710c en el proceso de estimación de interés social 340 para predeterminar el valor estimativo de interés social hacia comunidades de usuarios especificas. Por ejemplo, el valor estimativo de interés social puede estar predispuesto en base a información demográfica acerca del autor del pegado, de tal manera que, por ejemplo, solamente pegados que fueron generados por hombres mayores de 25 años de edad se les da un peso mayor de cero. La determinación de tal información demográfica puede proceder de un examen de datos disponibles públicamente pegados por el autor mismo, por anotación humana de autores específicos en base a opinión de expertos o clasificadores humanos entrenados en ejemplos marcados humanos. En el contexto de deportes, el valor estimativo de interés social puede ser ponderado hacia solamente aficionados del equipo de casa al filtrar pegados en base a sú sitio de origen (esto es, solamente pegados de autores en la ciudad del equipo de casa son incorporados en la suma pesada) o historia previa de pegado (esto es, el autor tiene una historia de observaciones positivas de pegado acerca del equipo de casa) .
Se pueden usar pesos a base de eventos 710d en el proceso de estimación de interés social 340 en base a evidencia de interés social dentro de la corriente de medios a base de tiempo misma. Ejemplos de tales medios incluyen, pero no están limitados a, programas de televisión de serie y juegos deportivos difundidos. En tales medios a base de tiempo, existen muchos elementos que proveen información útil para estimar el interés social. Ejemplos de esto incluyen, pero no están limitados a análisis visual (por ejemplo, observar evento específicos tales como explosiones) , análisis de audio (por ejemplo, identificación de eventos de sonido de alta energía high, tal como habla excitada) , análisis de lenguaje natural (por ejemplo, identificación de términos y frases clave, tales como "home run") y análisis de evento de video (por ejemplo, evaluación de eventos reproducidos tales como aquellos mostrados al comienzo de programas de televisión de serie o intermitentemente en difusiones de deportes tales como repetición instantánea en un evento deportivo) . Los pesos en base a tales eventos por sí mismos son predeterminados utilizando análisis de ejemplos marcados humanos.
Además, las puntuaciones de interés social pueden ser ponderadas en base a los comportamientos de observadores de los medios a base de tiempo, tal como son almacenados en. las estadísticas de uso 265. Tal comportamiento de usuario es integrado en base a la temporización de ítems de contenido del usuario en relación con medios y tiempos de presentación de eventos (por ejemplo, que tan frecuentemente un evento particular fue reproducido) . El análisis de estos comportamientos a través de múltiples usuarios puede ser indicador de interés social, por ejemplo, cuando la misma sección de medios es pausada y revisada múltiples veces (por múltiples gente) . Otro comportamiento de usuario registrable de las estadísticas de uso 265 puede ser usado para el proceso de estimación de interés social 340 incluye, pero no está limitado a, tiempos de visualización, tiempos de residencia, proporciones de chasquidos para anuncios, interrogaciones de búsqueda, comportamiento de compartimiento, etc.
La salida del proceso de estimación de interés social 340 es una puntuación de interés social 720 que es almacenada en el medio de almacenamiento de interés social 285. La puntuación de interés social 720 puede ser usada para proveer información para una interfase de usuario, por ejemplo, como se describe en los indicadores ilustrados en la presente, vía el motor de interfase de usuario 255, que es un medio para efectuar esta función.
Para ilustrar adicionalmente los métodos para asociar ítems de contenido de medio social con eventos de medios a base de tiempo y determinar el interés social en los eventos en base a las asociaciones resultantes, dos ejemplos siguen en los dominios de fútbol americano y publicidad comercial.
Como se ilustra en conjunción con la Figura 3A, múltiples corrientes de datos son ingeridos como una etapa preliminar en el método. Para el dominio de fútbol, además de los datos discutidos en la Figura 3, una fuente adicional de datos viene de alimentaciones estadísticas que contienen metadatos detallados acerca de eventos (con descripciones de texto de aquellos eventos) en un juego de fútbol. Alimentación estadística está disponible de múltiples fuentes tales como el Sistema de Estadística e Información de Juegos de NFL y compañías privadas tales como Stats, Inc.
Segmentación de Evento de Video En el proceso de segmentación de eventos de video 310 para fútbol americano, los medios a base de tiempo, por ejemplo, una alimentación de televisión de difusión para un juego de fútbol, es segmentado en segmentos semánticamente significativos correspondientes a "eventos" discretos que incluyen jugadas en un juego (y publicidad entre los mismos) .
La primera etapa en la segmentación de eventos en un video de fútbol es detectar las fronteras de toma instantánea de un video. Las fronteras de toma instantánea son puntos en un video de no continuidad, frecuentemente asociados con el cambio de un ángulo o escena de cámara. En el dominio de fútbol americano, los cambios en ángulos de cámara son comúnmente indicadores de cambios en jugadas.
En el dominio de fútbol, la detección de evento 420 puede operar al identificar primero tomas instantáneas que ilustran el campo de fútbol. Una vez que una frontera de toma instantánea es detectada, un clasificador de escena va a ser usado para determinar si aquella toma instantánea está enfocada principalmente en el campo de juego. Las tomas instantáneas de campo pueden luego ser clasificadas adicionalmente como ilustran un evento de juego (esto es, una jugada) . En el dominio de fútbol, durante la determinación de frontera de evento 430 los puntos de inicio y finales (esto es, puntos de entrada/salida) de un evento pueden ser refinados para reflejar puntos de inicio y parada más apropiados de una jugada. Tales puntos de entrada/salida pueden ser ajustados en base a la caracterización de reloj y/o segmentación de uterancia. En un juego de fútbol profesional, el comienzo y final de una jugada es algunas veces (pero no siempre) asociada con el inicio o parada del reloj de juego. Este reloj de juego es frecuentemente mostrado como una superposición gráfica en un juego de fútbol de difusión. El inicio/parada de este reloj de juego puede ser determinado al monitorear la cantidad de cambio (en pixeles) de una sub-región de cuadro (esto es, la región que contiene el gráfico de reloj de juego) en el video con respecto al tiempo. Cuando el cambio agregado en tales sub-regiones cae debajo de un umbral por más de un segundo, se supone que el estado del reloj de juego es "inactivo".. Si el cambio agregado avanza por encima de un umbral, se supone > que el estado del reloj de juego es "activo". Los cambios en el estado del reloj de juego son indicadores fuertes de que un evento ha ya sea comenzado o terminado en el video.
Un juicio estético es frecuentemente requerido cuando se determinan las fronteras para los puntos de inicio y final precisos de una jugada. La aproximación de tales juicios se puede efectuar utilizando las fronteras de uterancia en el habla de los anunciadores del juego. Estas fronteras de uterancia pueden ser detectadas al identificar pausas e la corriente de habla en el video. Las pausas pueden : ser identificadas utilizando elementos de programación de procesamiento de audio, tal como se encuentra en Sphinx 3.
Asi, la salida de la segmentación de evento de video 310 para un juego de fútbol americano en difusión de televisión es un conjunto de eventos de video segmentados correspondientes a jugadas en un juego.
Alineación/Anotación de Metadatos de Video El proceso de alineación/anotación de metadatos 320 en fútbol americano opera sobre la corriente de video segmentada en eventos en base a jugadas en el juego. Estos eventos son anotados con metadatos concernientes con el tipo de evento mostrado (por ejemplo, "touchdown") , jugadores clave en aquellos eventos (por ejemplo, "Tom Brady") , los papeles de aquellos jugadores (por ejemplo, "Pasador") y, detalles del evento (por ejemplo, "número de yardas ganadas"). Estos metadatos pueden ser agregados manualmente ' por expertos humanos, plenamente de manera automática por un algoritmo de máquina, o semi-automáticamente utilizando un procedimiento híbrido de humano-máquina. Los metadatos son almacenados en el medio de almacenamiento de metadatos de evento 273.
Para cada evento (esto es, jugada) que va a ser alineada con metadatos, la jugada es convertida en una representación de vector de elementos vía la extracción de elementos 315. La alineación de metadatos de video 520 toma luego como entrada la representación de vector de elementos 510 de una sola jugada y una instancia de metadatos 505. Efectúa ciclos a través de cada instancia de metadatos 505 en el medio de almacenamiento de metadatos de eventos 273 y estima la probabilidad de que la jugada particular pueda ser descrita por una instancia de metadatos particular utilizando por ejemplo un modelo probabilístico . Un modelo ejemplar es el modelo de lenguaje basal descrito anteriormente.
Alineación de Medios Sociales/Evento Anotado En la alineación de medios sociales/evento anotado 330, la extracción de elementos 620 genera elementos geo-temporales, elementos de contenido y elementos de autoridad. Las representaciones de elementos de contenido expresan la cantidad de contenido correlacionado entre metadatos de evento y términos dentro de los ítems de contenido de medio social. Por ejemplo, el ítem de contenido "Touchdown Brady! Vamos Patriotas" y la anotación "pasador: Brady, evento: touchdown, receptor: Moss" tienen términos de contenido traslapantes (esto es, "touchdown" y "Brady") .
Además de coincidencias exactas, la ontología de dominio 257 de términos de fútbol es usada para expandir el conjunto de términos para incluir sinónimos e hipernombres (por ejemplo, "TD" o "anotación" para "touchdown"), también como alias para jugadores (por ejemplo, "Tom Terrific" para "Brady") .
Las representaciones de elementos de autoridad expresan la probabilidad previa de que cualquier autor del contenido de medio social se puede referir a un evento de fútbol. Un factor en la estimación de esta probabilidad puede estar basado en los amigos, seguidores u otras conexiones a un usuario en su red social. Tales conexiones son indicadoras de la probabilidad de que un autor pegue acerca de un evento de fútbol, que puede proveer elementos adicionales para la función de alineación de medios sociales/eventos 330. Mientras más amigos se mantienen que pegan acerca de eventos de fútbol, más probable será que ellos pegarán acerca de eventos de fútbol. Para capturar esta información, se generan meta-puntuaciones para un usuario en base a la frecuencia de que sus contactos han pegado acerca de eventos de fútbol. Las meta-puntuaciones son el promedio, modo y mediana de todas de la frecuencia de sus pegados de fútbol de sus amigos.
La salida de la alineación de medio social/evento 330 es un mapeo entre la jugada anotada y cada ítem de contenido de medio social, con una puntuación de confianza asociada.
Si la información acerca del interés social en la jugada es deseada, puede ser estimada al agregar la información reunida de los procesos anteriores. La estimación de interés social 340 puede ser calculada para cada jugada en el juego. El resultado más probable son puntuaciones de interés social; más altos para jugadas tales como touchdowns y puntuaciones de i interés social más bajas para menos jugadas. [ Ejemplo: Publicidad Como se describe en conjunción con la Figura A, múltiples corrientes de datos son ingeridos como una etapa preliminar en el método.
Segmentación de Evento de Video Para el dominio de publicidad, durante el proceso de segmentación de evento de video 310, los medios a basé de tiempo son segmentados en segmentos semánticamente significativos correspondientes a "eventos" discretos quej son identificados con anuncios (esto es, comerciales). ¡ La detección de eventos 420 en el dominio1; de publicidad puede operar al identificar una o más tomas instantáneas que pueden ser parte de un bloque de publicidad (esto es, una secuencia de comerciales dentro o entre espectáculos) . Los bloques de publicidad son detectados utilizando Elementos de imagen tales como la presencia de cuadros completamente negros, detección de gráficos (por ejemplo, presencia de un logotipo de canal en el cuadro) , proporción de aspecto, fronteras de toma instantánea. Los elementos de habla/audio pueden ser usados incluyendo detección de cambio de volumen y la presencia/ausencia de subtítulos.
La detección de frontera de eventos 430 opera en un bloque de publicidad e identifica las fronteras de inicio y finalización de anuncios individuales dentro del bloque. La determinación de frontera de eventos puede ser efectuada utilizando un clasificador en base a elementos tales como la presencia/ausencia de cuadros negros, fronteras de toma instantánea, cambio de proporción de aspecto. Los clasificadores pueden ser optimizados manualmente o usando técnicas de aprendizaje de máquina.
Alineación/Anotación de Metadatos de Video Como con la segmentación de eventos 310, el proceso de alineación/anotación de metadatos de video 320 es dependiente del dominio. El dominio de publicidad, los metadatos para un anuncio pueden incluir información tal como "Marca: Walmart, Escena: el padre se viste como un payaso, Estado de Animo: cómico". Estos metadatos son generados por anotadores humanos que observan eventos de anuncios de muestra y registran metadatos para anuncios, incluyendo, los productos/marcas clave involucrados en el anuncio, el estado de ánimo del anuncio, los aspectos de historia/creativos del anuncio, los actores/celebridades en el anuncio, etc.
Los metadatos para publicidad pueden también incluir propiedades de imagen y audio de bajo nivel del anuncio (por ejemplo, número y duración de tomas instantáneas, histogramas de color promedio de cada toma instantánea, niveles de energía del audio, etc . ) .
Para cada evento (esto es, publicidad) que va a ser alineado con metadatos, el anuncio es convertido a una representación de vector de elementos vía la extracción de elementos 315. La alineación de metadatos de video 520 toma luego como entrada la representación de vector de elementos 510 de un solo anuncio y una instancia de metadatos 505. Efectúa ciclos a través de cada instancia de metadatos 505 en el medio de almacenamiento de metadatos de eventos 273 y estima la probabilidad de que un anuncio particular puede ser descrito por una instancia de metadatos particular utilizando por ejemplo, una función de similaridad de cosigno simple que compara la representación de elementos de bajo nivel del evento de anuncio con las propiedades de bajo nivel en los metadatos.
Alineación de Medios Sociales/Evento Anotado En la alineación de medios sociales/evento anotado 330, la extracción de elementos 620 genera elementos geo-temporales, elementos de contenido y elementos de autoridad. Las representaciones de elementos de contenido expresan la cantidad de contenido que co-ocurre entre metadatos de evento y términos dentro de los ítems de contenido de medio social. Por ejemplo, el ítem de contenido "Amo tal comercial de payaso de Walmart hilarante" y la anotación "Marca: Walmart, Escena: el padre se viste como payaso, Estado de Ánimo: "cómico" tiene términos de contenido que co-ocurren (esto es, "Walmart" y "payaso") .
Además de coincidencias exactas, las ontologías de dominio 257 que codifican información relevante al dominio de publicidad pueden ser usadas para expandir el conjunto de términos para incluir sinónimos e hipernimos' (por ejemplo, "hilarante" por "cómico") , nombres de compañías, productos, almacenes, etc., también como palabras asociadas con publicidad (por ejemplo, "comercial") .
La salida de la alineación de medios sociales/eventos 330 es un mapeo entre el anuncio anotado y cada ítem de contenido de medio social, con una puntuación de confianza asociada.
Si se desea información acerca de interés social en el anuncio, puede ser estimado al agregar la información reunida de los procesos anteriores. La estimación de interés social 340 puede ser calculada para cada anuncio en un bloque de anuncios o programa de televisión. El resultado más probable son puntuaciones de interés social más altas para anuncios particularmente interesantes o divertidos y puntuaciones de interés social más bajas para anuncios menos excitantes o repetitivos .
Aunque se describen dominios de fútbol americano y publicidad anteriormente, los métodos descritos en la presente pueden ser aptos a cualquier dominio que use medios a base de tiempo. El método de adaptación es en general a través de diferentes dominios y se enfoca en dos cambios. En primer lugar, técnicas y elementos usados para segmentación y anotación de eventos son aptas para reflejar características específicas de dominio. Por ejemplo, la detección de eventos en fútbol aprovecha la visibilidad del césped ya que es representado en las distribuciones de color en un cuadro de video, mientras que la detección de eventos en video de noticias puede aprovechar pistas en la corriente de subtítulos y superposiciones gráficas en los cuadros. El segundo cambio involucra la ontologia usada para enlazar eventos a ítems de contenido de medio social a los cuales se refieren. Mientras que para fútbol, la ontologia requerida contiene conceptos relacionados con jugadores de fútbol, equipos y eventos, los dominios tales como videos de noticias requieren ontologías y conceptos relacionados con conceptos germanos tales como eventos actuales y figuras culturalmente populares .
Exhibición de Estimación de Interés Social Como se menciona anteriormente, las estimaciones de interés social pueden ser usadas de varias maneras. Una de tal aplicación es mostrar interés social en varias interfases de usuario y representaciones gráficas. Las Figuras 8A y 8B muestran dos modalidades de mapas de calor de interés social 810, 820 gue muestran niveles de interés social para una pluralidad de eventos correspondientes a una serie de segmentos de tiempo cronológicos en un medio a base de tiempo.
La Figura 8A muestra un mapa de calor de interés social 810 correspondiente a un juego de fútbol, en el cual eventos individuales (jugadas y anuncios) 815 son mostrados como barras verticales cronológicamente a través de una linea de tiempo 830; la ubicación del tiempo de una barra corresponde al punto de inicio del evento. El nivel (altura) de interés social estimado en cada evento 815 es mostrado verticalmente por el número de ítems de contenido social 850 correspondientes a cada evento 815, una barra más alta representa mayor interés social. Dos tipos de eventos, anuncios 870 y jugadas 880, son mostrados .
La Figura 8B muestra un mapa de calor de interés social similar correspondiente a un juego de fútbol, en el cual eventos individuales (jugadas y anuncios) 860 son mostrados cronológicamente a través de una linea de tiempo 840. El nivel de interés social estimado en cada evento 860 es mostrado por intensidad de color de la barra correspondiente 860, una barra más oscura representa mayor interés social. Otras escalas de color/intensidad/textura/patrón pueden ser usadas para representar el nivel de interés. Dos tipos de eventos, anuncios 890 y jugadas 860, son mostrados.
Las Figuras 13A-D muestran todavía otra modalidad de una interfase de usuario 1300 que muestra mapas de calor de interés social 1310 que muestran niveles de interés social para una pluralidad de eventos correspondientes a una serie de segmentos de tiempo cronológicos en un medio a base de tiempo.
La Figura 13A muestra una interfase de usuario 1300a con cada mapa de calor de interés social 1310 (barras horizontales) correspondientes a un canal diferente. El ancho de los mapas 1310 corresponde por un período de tiempo como se muestra en la barra de navegación 1320, entre los dos extremos 1325. Los canales tienen múltiples espectáculos distintos, mostrados como celdas 1315, formando mediante esto una rejilla. El nivel de interés social es indicado por la intensidad de color en una celda dada 1315, con las celdas más oscuras indicadoras del interés social más alto en el espectáculo. La barra de navegación 1320 permite al usuario seleccionar el cuadro de tiempo para observar y los extremos 1325 permiten que el tamaño de la barra de navegación sea expandida para ajustar la porción visible de los mapas de calor de interés' social en la interfase de usuario 1300, con el extremo izquierdo 1325a que controla el tiempo de inicio y el extremo derecho 1325b que controla el tiempo de finalización para los mapas de calor de interés social 1310.
La Figura 13B muestra una interfase de usuario 1300b similar a aquella mostrada en la Figura 13A, excepto que los mapas de calor de interés social 1310 incluyen indicación de anuncios 1330 que aparecen durante los espectáculos 1315. La oscuridad de las lineas correspondientes con anuncios individuales con la más oscura como indicadora de interés social en los anuncios, la más oscura indica mayor interés.
La Figura 13C muestra una interfase de usuario 1300c similar a aquella mostrada en la Figura 13A, excepto que se ha hecho un acercamiento en los mapas de calor de interés social 1310 al nivel de días para mostrar una escala de tiempo diferente en la barra de navegación 1337. Aquí, cada división 1340 en la barra de navegación corresponde a un solo dia . Las células 1345 corresponden a horas del dia, por ejemplo, Primetime. La oscuridad de color de cada celda es representativa del interés social en espectáculos y/o anuncios durante aquel cuadro de tiempo.
La Figura 13D muestra una interfase de usuario 1300d similar a aquella mostrada en la Figura 13A, excepto que se ha hecho un acercamiento en los mapas de calor de interés social 1310 al nivel de meses para mostrar una escala de tiempo diferente. La división 1365 en la barra de navegación 1337 corresponde a un cuarto del año. Las celdas 1355 en la rejilla corresponden a meses del año. La oscuridad de color de cada celda es representativa del interés social en espectáculos y/o anuncios durante aquel cuadro de tiempo.
Las Figuras 9A-9C muestran tres modalidades de interfases de usuario 900 de un sistema de estimación de interés social. Cada figura muestra un área de mapa de calor de interés social 910, área de exhibición de medios 920 y un área de exhibición de medio social 930 (no mostrada en la Figura 9C) .
La Figura 9A muestra en el área de mapa de calor de interés social 910a tres mapas de calor de interés social 940a-c similares al descrito en conjunción con la Figura 8A, cada mapa 940a-c corresponde a un canal diferente de contenido de medios. El área de exhibición de medios 920a muestra un reproductor de medios para mostrar los medios a base de tiempo asociados con el evento seleccionado 915, en este ejemplo un anuncio de Dodge Charger. El área de exhibición de medios sociales 930a muestra información estadística acerca de los medios sociales correspondientes al evento seleccionado, también como los ítems de contenido de medio social individuales.
La Figura 9B muestra en el área de mapa de calor de interés social 910b varios mapas de calor de interés social 960 similares al descrito en conjunción con la Figura 8B, cada mapa 960 correspondiente a un canal diferente, también como un mapa de calor de interés social global 970 correspondiente a un evento seleccionado a través de todos los canales. El área de exhibición de medios 920b muestra un reproductor de medios para mostrar los medios a base de tiempo asociados con un evento seleccionado por el usuario 935, en este ejemplo una escena de publicidad. El usuario puede seleccionar cualquier evento 935 en la pantalla e invocar al reproductor que muestre el contenido de video del evento. Las áreas de exhibición de medios sociales 930bl y 930b2 muestran los ítems de contenido de medio social individuales (930b |) e información estadística acerca de los medios sociales correspondientes con el evento seleccionado (930b2).
La Figura 9C muestra en el área de mapa de calor de interés social 910c cuatro mapas de calor de interés social 950a-d similares al descrito en conjunción con la Figura' 8B, cada mapa 950a-d correspondiente a un canal diferente. El área de exhibición de medio's 920c muestra un reproductor de medios para mostrar los medios a base de tiempo asociados con el evento seleccionado 925, en este ejemplo un pase en un juego de fútbol. Otra vez, el usuario puede controlar el reproductor para mostrar un evento al seleccionar el evento 925 en un mapa 950.
Las Figuras 10A y 10B muestran dos modalidades de interfases de usuario 1000 de un sistema de estimación de interés social que muestra una vista de sentimiento. Las interfases de usuario 1000 son similares a aquellas mostradas en las Figuras 9A-9B, excepto que los mapas de calor de interés social 940, 970 proveen información que indica el sentimiento de los ítems de contenido de medio social, por ejemplo, si son negativos o positivos, en base a proceso de detección de sentimiento descrito en la presente.
La Figura 10A muestra para el evento 915 en los mapas de calor de interés social 940, una porción positiva (superior) 1010 correspondiente al número de ítems de contenido de medio social con sentimiento positivo y una porción negativa (fondo) 1012 correspondiente con el número de ítems de contenido de medio social con sentimiento negativo. Las porciones positivas 1010 y negativas 1012 son distinguidas visualmente entre sí, de tal manera que sus porcentajes relativos dentro de toda la barra de eventos son visibles. Se muestra un botón de radio 1015 para bascular el encendido y apagado la vista de sentimiento .
La Figura 10B muestra para un evento 1015 en el ¡mapa de calor de interés social global 970, una porción positiva (superior) 1020 correspondiente con el número de ítems de contenido de medio social con sentimiento positivo y una porción negativa (fondo) 1022 correspondiente al número de ítems de contenido de medio social con sentimiento negativo. Las porciones positivas 1020 y negativas 1020 son distinguidas visualmente entre sí, de tal manera que sus porcentajes relativos dentro de toda la barra de eventos son visibles.
Las Figuras 11A-11C muestran tres modalidades de interfases de usuario 1100 de un sistema de estimación de interés social que muestra una vista filtrada. Las interfases de usuario 1100 son similares a aquellas mostradas en las Figuras 9A-9C, excepto que los mapas de calor de interés social 940, 970 proveen información para solamente un subconjunto filtrado de los ítems de contenido de medio social.
La Figura 11A muestra un filtro a base de texto "doritos" aplicado a los datos, de tal manera que las barras de ítem de contenido de medio social correspondientes a anuncios de la marca Doritos (1110) se muestran más oscuras, o de otra manera distinguidas visualmente, de las barras de ítems de contenido de medio social de la marca sin Doritos (1115) .
La Figura 11B muestra un filtro a base de texto aplicado a los datos (no mostrado) de tal manera que solamente las barras de ítem de contenido de medio social correspondientes con el filtro aplicado son visibles en un mapa de calor de interés social global 970.
La Figura 11C muestra un filtro aplicado a los datos correspondientes a jugadores en la liga de fútbol de fantasía del usuario, de tal manera que solo las barras de ítem de contenido de medio social correspondientes a jugadas por los jugadores de fútbol de fantasía son mostradas en los mapas de calor de interés social 950. Un área de jugadores adicional 1120 muestra los jugadores en la liga de fútbol de fantasía del usuario.
La Figura 12A muestra una modalidad de interfase de usuario 1200 de un sistema de estimación de interés social que muestra una vista no detallada enfocada. La interfase de usuario 1200 es similar a aquella de la Figura 10A, excepto que el mapa de calor de interés social 940a tiene una sub-sección 1210 del mapa de calor de interés social seleccionada. La Figura 12B muestra una interfase de usuario 1250 similar a aquella de la Figura 12A, excepto que muestra una vista en acercamiento 1260 del mapa de calor de interés social 940a con la sub-sección 1210 de Figura 12A expandida.
La descripción anterior de las modalidades de la invención ha sido presentada por propósitos de ilustración; no pretende ser exhaustiva o limitar la invención a las formas precisas reveladas. Las personas experimentadas en el arte relevante pueden apreciar que muchas modificaciones y variaciones son posibles a la luz de la revelación anterior L Algunas porciones de esta descripción describen modalidades de la invención en términos de algoritmos y representaciones simbólicas de operaciones sobre información.
Estas descripciones algorítmicas y representaciones son usadas comúnmente por aquellos experimentados en las artes de procesamiento de datos para transportar la sustancia de su trabajo efectivamente a otros experimentados en el arte. Éstas operaciones, en tanto que son descritas funcional, computacional, o lógicamente, se entiende que son implementadas por programas de computadora o circuitos eléctricos equivalentes, microcódigos o los semejantes. Además, también ha probado ser conveniente en algunas veces, referirse a estas disposiciones de operaciones como módulos, sin pérdida de generalidad. Las operaciones descritas y sus módulos asociados pueden ser implementados en elementos de programación, elementos fijos, elementos físicos o cualquier combinación de los mismos.
Cualquiera de las etapas, operaciones o procesos descritos en la presente pueden ser efectuados o implementados con uno o más módulos de elementos físicos o elementos de programación, solos o en combinación con otros dispositivos. En una modalidad, un módulo de elementos de programación es implementado con un producto de programa de computadora que comprende un medio que se puede leer por computadora que contiene códigos de programa de computadora, que pueden! ser ejecutados por un procesador de computadora para efectuar cualquiera o todas las etapas, operaciones o procesos descritos.
Las modalidades de la invención pueden también, ser concernientes con aparato para efectuar las operaciones ejn la presente. Este aparato puede estar construido especialmente i ! para los propósitos requeridos y/o puede comprender! un dispositivo de cómputo de uso universal activad® o reconfigurado selectivamente por un programa de computadora almacenado en la computadora. Tal programa de computadora puede ser almacenado persistentemente en un medio de almacenamiento que se puede leer por computadora no transitorio, tangible, o cualquier tipo de medio apropiado para almacenar instrucciones electrónicas, que puede ser acoplado a una linea principal de I distribución del sistema de computadora. Además, cuales uier i sistemas de cómputo a los que se hace referencia en la especificación pueden incluir un solo procesador o ser arquitecturas que emplean múltiples diseños de procesador! por ? capacidad de cómputo incrementada. ¡ Las modalidades de la invención también pueden ser concernientes con un producto que es producido por un proceso de cómputo descrito en la presente. Tal producto puede comprender información resultante de un proceso de cómputo, en donde la información es almacenada en un medio ¡ de almacenamiento que se puede leer por computadora' no transitorio, tangible que puede incluir cualquier modalidad de un producto de programa de computadora u otra combinación de i datos descrita en la presente. ¡ Finalmente, el lenguaje usado en la especificación ha sido seleccionado principalmente por facilidad de lectura y propósitos instruccionales y puede no haber sido seleccionado para delinear o cinrcunscribir la materia inventiva. Por consiguiente, se pretende que el alcance de la invención sea limitado no por esta descripción detallada, sino más bien por cualesquier reivindicaciones que se expidan en una solicitud en base a la presente. Asi, la revelación de las modalidades de la invención pretende ser ilustrativa, pero no limitante ' del alcance de la invención, que es resumido en las siguientes reivindicaciones . 88 medio social con un evento de medios a base de tiempo, el sistema está caracterizado porque comprende: un procesador de computadora; y ;¦ un medio de almacenamiento que se puede leer por computadora que almacena módulos de programa de computadora configurados para ejecutar en el procesador de computadora, los módulos de programa de computadora comprenden: un motor de alineación de medios/eventos configurado para determinar una puntuación de confianza para cada uno de los ítems de contenido de medio social candidatos indicadora de una probabilidad de que el item de contenido de medio social candidato sea relevante al evento y para alinear con el evento, en base a sus puntuaciones de confianza respectivas, un subconjunto de la pluralidad de los ítems de contenido de medio social; y G un medio de almacenamiento de datos para recolectar las alineaciones entre el evento y el subconjunto de la pluralidad de ítems de contenido de medio social. 22. El sistema de la reivindicación 21, caracterizado porque los módulos de programa de computadora comprenden además: un motor de extracción de elementos comparativo configurado para extraer elementos de eventos de anotaciones asociadas con el evento y para extraer elementos de medio sociales de la pluralidad de ítems de contenido de medio

Claims (1)

  1. REIVINDICACIONES 1. Un método ejecutado por computadora para asociar ítems de contenido de medio social con un evento de medios a base de tiempo, el método está caracterizado porque comprende: recibir una pluralidad de ítems de contenido de medio social candidatos; para cada uno de los ítems de contenido de medio i social candidato, determinar una puntuación de confianza indicadora de la probabilidad de que el ítem de contenido de medio social candidato sea relevante para el evento; alinear con el evento, en base a sus puntuaciones de confianza respectivas, un subconjunto de la pluralidad de los i ítems de contenido de medio social; y ¡ recolectar en un' medio de almacenamiento de datos las alineaciones entre el evento y el subconjunto de la pluralidad de los ítems de contenido de medio social. 2. El método ejecutado por computadora de la reivindicación 1, caracterizado porque comprende además segmentar un medio a base de tiempo recibido en una pluralidad de segmentos correspondientes con eventos de medios a basé de tiempo. 3. El método ejecutado por computadora de la reivindicación 1, caracterizado porque la determinación de la puntuación de confianza indicadora de la probabilidad de que el ítem de contenido de medio social candidato es relevante al evento comprende además: : extraer elementos de eventos de anotaciones asociadas con el evento; ¡ extraer elementos de medio sociales de la pluralidad de ítems de contenido de medio social; y mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de evento y elementos de medio sociales. 4. El método ejecutado por computadora de la reivindicación 3, caracterizado porque comprende además anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. 5. El método ejecutado por computadora de la reivindicación 1, caracterizado porque comprende además: i agregar las puntuaciones de confianza del subconjunto asociado de ítems de contenido de medio social candidatos para producir una puntuación agregada; y determinar un nivel de interés social en el evento en base a la puntuación agregada. : 6. Un método ejecutado por computadora para determinar el interés social en un evento en medios a base de tiempo, el método está caracterizado porque comprende: recibir una pluralidad de ítems de contenido de medio social candidatos; para cada uno de los ítems de contenido de medio social candidato, determinar una puntuación de confianza indicadora de la probabilidad de que el ítem de contenido de medio social candidato sea relevante para el evento; alinear con el evento, en base a sus puntuaciones de confianza respectivas, un subconjunto de la pluralidad de los ítems de contenido de medio social; agregar las puntuaciones de confianza del subconjunto alineado de ítems de contenido de medio social candidato para producir una puntuación agregada; y determinar un nivel de interés social en el evento en base a la puntuación agregada. 7. El método ejecutado por computadora de la reivindicación 6, caracterizado porque la determinación dé la puntuación de confianza indicadora de la probabilidad de que el ítem de contenido de medio social candidato esa relevante al evento comprende además: extraer elementos de eventos de anotaciones asociadas con el evento; extraer elementos del medio social de la pluralidad de ítems de contenido de medio social; y mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de eventos y elementos de medio social. 8. El método ejecutado por computadora de: la reivindicación 7, caracterizado porque comprende además anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. 9. Un método ejecutado por computadora para determinar interés social en eventos de medios a base de tiempo, el método está caracterizado porque comprende: seleccionar una pluralidad de eventos en un medio a base de tiempo; recibir una pluralidad de ítems de contenido de medio social candidatos potencialmente relevantes a los eventos en el a base de tiempo; para cada ítem de contenido de medio social, determinar la puntuación de confianza para el ítem de contenido de medio social con respecto a por lo menos uno de la pluralidad de eventos, la puntuación de confianza indica una probabilidad que el ítem de contenido de medio social sea relevante al por lo menos un evento; y para cada uno de la pluralidad de eventos: alinear con el evento, en base a sus puntuaciones de confianza respectivas, un subconjunto de la pluralidad de ítems de contenido de medio social; agregar las puntuaciones de confianza de los ítems de contenido de medio social que tienen un puntuación de confianza para el evento; y determinar un nivel de interés social para el evento en base a la puntuación agregada. 10. El método ejecutado por computadora de la reivindicación 9, caracterizado porque comprende además recolectar en un medio de almacenamiento de datos las alineaciones entre el evento y el subconjunto de la pluralidad de los ítems de contenido de medio social. 11. El método ejecutado por computadora de la reivindicación 9, caracterizado porque para un evento seleccionado, la determinación de la puntuación de confianza indicadora de la probabilidad de que el ítem de contenido de medio social candidato sea relevante al evento comprende además : extraer elementos de eventos de anotaciones asociadas con el evento; extraer elementos de medio sociales de la pluralidad de ítems de contenido de medio social; y mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de eventos y elementos de medio social. 12. El método ejecutado por computadora de la reivindicación 11, caracterizado porque comprende además anotar el evento con las anotaciones utilizando instancias; de metadatos relevantes al evento. i 13. Un método ejecutado por computadora para mapear ítems de contenido social a eventos de medios a base de tiempo, caracterizado porque comprende: alinear una pluralidad de instancias de metadatos con segmentos de medios a base de tiempo correspondientes con eventos en los medios a base de tiempo para formar eventos anotados; y mapear a los eventos anotados una pluralidad de ítems de contenido de medio social relevantes a los eventos anotados. 14. El método ejecutado por computadora de la reivindicación 13, caracterizado porque la alineación de una pluralidad de instancias de metadatos a segmentos de medios a base de tiempo correspondientes con eventos en los medios a base de tiempo para formar eventos anotados comprende además: recibir la pluralidad de instancias de metadatos; segmentar los medios a base de tiempo en segmentos correspondientes a eventos en los medios a base de tiempo, cada segmento tiene un comienzo y un final; y determinar, para cada instancia de metadatos, un segmento de los medios a base de tiempo que se alinean más probablemente con la instancia de metadatos. 15. El método ejecutado por computadora de la reivindicación 13, caracterizado porque el mapeo a los eventos anotados de una pluralidad de ítems de contenido de medio social relevantes a los eventos anotados comprende además: j extraer los elementos de medio social de la pluralidad de ítems de contenido de medio social; extraer elementos de eventos de los eventos anotados; y raapear los eventos anotados a la pluralidad de ítems de contenido de medio social en base a una relación entre los elementos de eventos y elementos de medio sociales. 16. Un sistema para asociar ítems de contenido de medio social con un evento de medios a base de tiempo, el sistema está caracterizado porque comprende: medios para recibir una pluralidad de ítems de contenido de medio social candidato; medios para determinar una puntuación de confianza para cada uno de los ítems de contenido de medio social candidatos indicadora de la probabilidad de que un ítem de contenido de medio social candidato sea relevante para el evento; medios para alinear con el evento, en base a sus puntuaciones de confianza respectivas, un subconjunto de la pluralidad de ítems de contenido de medio social; y un medio de almacenamiento de datos para recolectar las alineaciones entre el evento y el subconjunto de la pluralidad de ítems de contenido de medio social. 17. El sistema de la reivindicación 16, caracterizado porque comprende además: i medios para extraer elementos de eventos i de anotaciones asociadas con el evento; medios para extraer elementos de medio social de la pluralidad de ítems de contenido de medio social; y medios para mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de j evento y elementos de medio sociales. ¡ 18. El sistema de la reivindicación 17, caracterizado porque comprende además anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. . ! 19. El sistema de la reivindicación 16, caracter porque comprende además: ! medios para agregar las puntuaciones de confianza! del subconjunto asociado de ítems de contenido de medio social candidatos para producir una puntuación agregada; y ¡ medios para determinar un nivel de interés socia'l en I el evento en base a la puntuación agregada. ; 20. un sistema para mapear ítems de contenido scjcial a eventos de medios a base de tiempo, caracterizado porque comprende : medios para alinear una pluralidad de instancias de metadatos con segmentos de medios a base de tiempo ¡ correspondientes a eventos en los medios a base de tiempo ¡para formar eventos anotados; y ? medios para mapear a los eventos anotados ! una pluralidad de ítems de contenido de medio social relevantes a los eventos anotados. 21. Un sistema para asociar ítems de de social; y el motor de alineación de medios/evento ,está i configurado además para mapear el evento a los ítems de contenido de medio social en base a una relación entre! los elementos de eventos y elementos de medio sociales. j 23. El sistema de la reivindicación 22, caracterizado porque los módulos de programa de computadora comprenden además: un motor de anotación configurado para anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. 24. El sistema de la reivindicación 21, caracterizado porque los módulos de programa de computadora además: un estimador de interés social configurado ¡para agregar las puntuaciones de confianza del subconjunto asociado de ítems de contenido de medio social candidatos para producir una puntuación agregada y para determinar el nivel de interés social en el evento en base a la puntuación agregada. 25. Un sistema para mapear ítems de contenido sópial I! a eventos de medios a base de tiempo, caracterizado porque comprende: ¡ un motor de alineación de metadatos configurado Ipara alinear una pluralidad de instancias de metadatos con segmentos de medios a base de tiempo correspondientes a eventos enj los medios a base de tiempo para formar eventos anotados; y un motor de alineación de medios/eventos configurado para mapear a los eventos anotados una pluralidad de ítems de contenido de medio social relevantes a los eventos anotados. 26. Un método ejecutado por computadora para mostrar interés social en eventos de medios a base de tiempo, el método está caracterizado porque comprende: seleccionar una serie de eventos que ocurren en un medio a base de tiempo, cada evento asociado con uno de una serie de segmentos de tiempo cronológicos en el medio a base de tiempo; para cada evento asociado con uno de los segmentos de tiempo, determinar un nivel de interés social en el evento de una pluralidad de ítems de contenido de medio social que son relevantes al evento; i para cada uno de los segmentos de tiempo, determinar un nivel de interés social en el segmento de tiempo en base a un nivel agregado de interés social en los eventos alineados con el segmento de tiempo; y mostrar gráficamente el nivel de interés social en cada segmento de tiempo. 27. El método ejecutado por computadora de la reivindicación 26, caracterizado porque la exhibición gráficamente de cada segmento de tiempo comprende mostrar tipos de eventos diferentes, de tal manera que los diferentes tipos de eventos son cada uno visualmente distintos. ; 28. El método ejecutado por computadora de! la reivindicación 26, caracterizado porque comprende adémás filtrar los segmentos de tiempo de acuerdo con un término de búsqueda, en donde la exhibición gráficamente muestra solamente un subcon unto de la serie de segmentos de tiempo cronológicos correspondientes con el término de búsqueda. ! 29. El método ejecutado por computadora de la reivindicación 26, caracterizado porque la exhibición gráfica de cada segmento de tiempo comprende: determinar una primera porción del segmento correspondiente a un sentimiento positivo; determinar una segunda porción del segm'ento I correspondiente a un sentimiento negativo; y j mostrar el segmento con las primeras y segundas i porciones del segmento distinguidas visualmente entre si. 30. El método ejecutado por computadora de; la reivindicación 26, caracterizado porque comprende además determinar una puntuación de confianza indicadora de|! la probabilidad de que la pluralidad de ítems de contenido de i medio social candidatos sean relevantes al eve!hto, caracterizado porque comprende además: i extraer elementos de eventos de anotaciones asociadas con el evento; ¡ i extraer elementos de medio social de la pluralida!d de ítems de contenido de medio social; y mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de eventos y elementos de medio sociales. 31. El método ejecutado por computadora de la reivindicación 26, caracterizado porque comprende además anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. 32. Un medio que se puede leer por computadora tangible que almacena un programa de computadora ejecutable por un procesador, el programa de computadora produce una interfase de usuario de un sistema de estimación de interés social, la interfase de usuario está caracterizada porque comprende: un área de mapa de calor de interés social para mostrar un mapa de calor de interés social que muestra niveles de interés social por una pluralidad de eventos correspondientes con una serie de segmentos de tiempo cronológicos en un medio a base de tiempo; un área de exhibición de medios, distinguida visualmente y mostrada concurrentemente con el área de mapa de calor de interés social, para mostrar un evento seleccionado del mapa de calor de interés social; y ¡ un área de exhibición de medio sociales, distinguida visualmente de y mostrada concurrentemente con el mapa de calor de interés social y áreas de exhibición de medios, para mostrar ítems de contenido de medio social por el evento seleccionadlo. 33. El medio que se puede leer por computadora de la reivindicación 32, caracterizado porque el área de mapa de calor de interés social muestra diferentes tipos de eventos;, de tal manera que los diferentes tipos de eventos son cada ¡ uno visualmente distintos. | 34. El medio que se puede leer por computadora de la reivindicación 32, caracterizado porque la interfase de usuario comprende además un campo para filtración de los segmentos de tiempo de acuerdo con el término de búsqueda, en donde el área de mapa de calor de interés social muestra solamente un subconjunto de la serie de segmentos correspondientes, al término de búsqueda. !, 35. El medio que se puede leer por computadora d¡e la reivindicación 32, caracterizado porque cada segmento de ti|empo comprende una primera porción del segmento correspondiente !a un i sentimiento positivo que es distinguido visualmente de : una segunda porción del segmento correspondiente al sentimiento negativo. j 36. Un sistema para mostrar interés social en ev ntos de medios a base de tiempo, el sistema está caracterizado porque comprende: j medios para seleccionar una serie de eventos ¡' que ocurren en un medio a base de tiempo, cada evento asociado;1 con ? uno de una serie de segmentos de tiempo cronológicos en el medio a base de tiempo; medios para determinar para cada evento asociado con uno de los segmentos de tiempo, un nivel de interés social en el evento de una pluralidad de ítems de contenido de medio social que son relevantes al evento; medios para determinar para cada uno de los segmentos de tiempo un nivel de interés social en el segmento de tiempo en base a un nivel agregado de interés social en los eventos alineados con el segmento de tiempo; y medios para mostrar gráficamente el nivel de interés social en cada segmento de tiempo. 37. El sistema de la reivindicación 36, caracterizado porque la exhibición gráficamente de cada segmento de tiempo comprende mostrar diferentes tipos de eventos, de tal manera que los diferentes tipos de eventos son cada uno visualmente distintos . 38. El sistema de la reivindicación 36, caracterizado porque comprende además medios para filtrar los segmentos de tiempo de acuerdo con un término de búsqueda, en donde la exhibición gráficamente muestra solamente un subconjunto de la serie de segmentos de tiempo cronológicos correspondientes; con el término de búsqueda. 1 39. El sistema de la reivindicación 36, caracterizado porque los medios para mostrar gráficamente cada segmento de tiempo comprenden: medios para determinar una primera porción del segmento correspondiente a un sentimiento positivo; medios para determinar una segunda porción : del segmento correspondiente a un sentimiento negativo; y medios para mostrar el segmento con las primeras y segundas porciones del segmento distinguidas visualmente entre si . 40. El sistema de la reivindicación 36, caracterizado porque comprende además medios para determinar una puntuación de confianza indicadora de la probabilidad de que la pluralidad de ítems de contenido de medio social candidatos sean relevantes al evento, caracterizado porque comprende además: medios para extraer elementos de eventos y anotaciones asociadas con el evento; medios para extraer elementos de medio sociales de la pluralidad de ítems de contenido de medio social; y medios para mapear el evento a los ítems de contenido de medio social en base a una relación entre los elementos de eventos y elementos de medio sociales. 41. El sistema de la reivindicación 36, caracterizado porque comprende además medios para anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento. 42. Un sistema para mostrar interés social en eventos de medios a base de tiempo, el sistema está caracterizado porque comprende: un procesador de computadora; y un medio de almacenamiento que se puede leer por computadora que almacena módulos de programa de computadora configurados para ejecutar en el procesador de computadora, los módulos de programa de computadora comprenden: un medio de almacenamiento de multimedios configurado para almacenar una serie de eventos que ocurren en un medio a base de tiempo, cada evento asociado con uno de una serié de segmentos de tiempo cronológicos en el medio a base de tiempo; un estimador de interés social configurado para determinar, para cada evento asociado con uno de los segmentos de tiempo, un nivel de interés social en el evento de una pluralidad de ítems de contenido de medio social que son relevantes al evento y para determinar, para cada uno de los segmentos de tiempo, un nivel de interés social en el segmento de tiempo en base a un nivel agregado de interés social en los eventos alineados con el segmento de tiempo; y un motor de interfase de usuario configurado para mostrar gráficamente el nivel de interés social en cada segmento de tiempo. 43. El sistema de la reivindicación 42, caracterizado porque la pantalla gráfica de cada segmento de tiempo comprende mostrar diferentes tipos de eventos, de tal manera que lo-s diferentes tipos de eventos son cada son visualmente distintos. 44. El sistema de la reivindicación 42, caracterizado porque comprende además un motor de ontologia de dominio configurado para filtrar los segmentos de tiempo de acuerdo con un término de búsqueda, en donde la exhibición gráfica muestra solamente un subconjunto de la serie de segmentos de tiempo cronológicos correspondientes con el término de búsqueda. 45. El sistema de la reivindicación 42, caracterizado porque comprende además un motor de anotación configurado para anotar el evento con las anotaciones utilizando instancias de metadatos relevantes al evento.
MX2012000724A 2009-07-16 2010-07-16 Metodo de estimacion e indicacion de interes social en medios a base de tiempo. MX2012000724A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US22600209P 2009-07-16 2009-07-16
PCT/US2010/042362 WO2011009101A1 (en) 2009-07-16 2010-07-16 Estimating and displaying social interest in time-based media

Publications (1)

Publication Number Publication Date
MX2012000724A true MX2012000724A (es) 2012-06-25

Family

ID=43449847

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2012000724A MX2012000724A (es) 2009-07-16 2010-07-16 Metodo de estimacion e indicacion de interes social en medios a base de tiempo.

Country Status (7)

Country Link
US (7) US9542489B2 (es)
EP (2) EP3009975A1 (es)
JP (1) JP5795580B2 (es)
KR (4) KR101816113B1 (es)
CA (3) CA3149767A1 (es)
MX (1) MX2012000724A (es)
WO (1) WO2011009101A1 (es)

Families Citing this family (294)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8862591B2 (en) * 2006-08-22 2014-10-14 Twitter, Inc. System and method for evaluating sentiment
US8463053B1 (en) 2008-08-08 2013-06-11 The Research Foundation Of State University Of New York Enhanced max margin learning on multimodal data mining in a multimedia database
US8769589B2 (en) 2009-03-31 2014-07-01 At&T Intellectual Property I, L.P. System and method to create a media content summary based on viewer annotations
MX2012000724A (es) 2009-07-16 2012-06-25 Bluefin Lab Inc Metodo de estimacion e indicacion de interes social en medios a base de tiempo.
US8068677B2 (en) * 2009-08-25 2011-11-29 Satyam Computer Services Limited System and method for hierarchical image processing
US20110162007A1 (en) * 2009-09-14 2011-06-30 Broadcom Corporation Television system providing user-interaction related to an in-progress television program
US9081857B1 (en) 2009-09-21 2015-07-14 A9.Com, Inc. Freshness and seasonality-based content determinations
US20110314061A1 (en) * 2009-12-09 2011-12-22 Marcos Lara Preference sharing method
US9438360B2 (en) * 2010-01-11 2016-09-06 Signet Media, Inc. System and method for providing an audio component of a multimedia content displayed on an electronic display device to one or more wireless computing devices
KR101163196B1 (ko) * 2010-02-12 2012-07-06 박미쁨 개인 맞춤형 컨텐트를 제공하는 애플리케이션 서버에서의 개인 맞춤형 사회 네트워크 지도 관리 방법 및 그 방법을 실행하기 위한 프로그램 기록매체
US9084096B2 (en) * 2010-02-22 2015-07-14 Yahoo! Inc. Media event structure and context identification using short messages
US20110276513A1 (en) * 2010-05-10 2011-11-10 Avaya Inc. Method of automatic customer satisfaction monitoring through social media
US8994311B1 (en) * 2010-05-14 2015-03-31 Amdocs Software Systems Limited System, method, and computer program for segmenting a content stream
KR20120020010A (ko) * 2010-08-27 2012-03-07 삼성전자주식회사 컨텐츠 표시 방법 및 그 장치
KR101169377B1 (ko) * 2010-09-27 2012-07-30 한국과학기술연구원 핫 토픽 이벤트 추출에 기반한 실시간 이벤트의 하이라이트 제공 시스템 및 이를 이용한 하이라이트 서비스 제공방법
US20120233701A1 (en) * 2010-09-28 2012-09-13 Adam Kidron Content license acquisition platform apparatuses, methods and systems
US10387524B2 (en) * 2010-09-29 2019-08-20 Open Text Sa Ulc System and method for managing objects using an object map
US20120210250A1 (en) * 2010-10-12 2012-08-16 Waldeck Technology, Llc Obtaining and displaying relevant status updates for presentation during playback of a media content stream based on crowds
US8805165B2 (en) * 2010-11-09 2014-08-12 Kodak Alaris Inc. Aligning and summarizing different photo streams
KR20120052636A (ko) * 2010-11-16 2012-05-24 한국전자통신연구원 온톨로지 기반의 품목분류코드 추천 시스템 및 방법
US9829340B2 (en) * 2010-11-18 2017-11-28 Google Inc. Analysis of interactive map usage patterns
US20120166250A1 (en) * 2010-12-22 2012-06-28 Facebook, Inc. Data visualization for time-based cohorts
US9881257B2 (en) * 2010-12-29 2018-01-30 Tickr, Inc. Multi-dimensional visualization of temporal information
US8898698B2 (en) 2011-01-21 2014-11-25 Bluefin Labs, Inc. Cross media targeted message synchronization
US10440402B2 (en) 2011-01-26 2019-10-08 Afterlive.tv Inc Method and system for generating highlights from scored data streams
US8543454B2 (en) 2011-02-18 2013-09-24 Bluefin Labs, Inc. Generating audience response metrics and ratings from social interest in time-based media
US20120221563A1 (en) * 2011-02-24 2012-08-30 Microsoft Corporation Social Weight of Social Media Content
US20120238254A1 (en) * 2011-03-17 2012-09-20 Ebay Inc. Video processing system for identifying items in video frames
US20120246054A1 (en) * 2011-03-22 2012-09-27 Gautham Sastri Reaction indicator for sentiment of social media messages
TWI456410B (zh) * 2011-03-25 2014-10-11 Yahoo Inc 使用短訊息之媒體事件結構與內容辨識之方法、系統及電腦可讀儲存媒介
JP5872183B2 (ja) * 2011-04-08 2016-03-01 株式会社ユニバーサルエンターテインメント 情報処理システム、嗜好可視化システム及び検閲システム並びに嗜好可視化方法
US9100669B2 (en) * 2011-05-12 2015-08-04 At&T Intellectual Property I, Lp Method and apparatus for associating micro-blogs with media programs
EP2705488A4 (en) * 2011-06-08 2014-12-31 Hewlett Packard Development Co IDENTIFICATION AND VISUALIZATION OF SOCIAL MEDIA EXPRESSION
CN102831116A (zh) * 2011-06-14 2012-12-19 国际商业机器公司 用于文档聚类的方法及系统
US9613339B2 (en) * 2011-06-30 2017-04-04 International Business Machines Corporation Information exchange in the social network environment
WO2013010104A1 (en) * 2011-07-13 2013-01-17 Bluefin Labs, Inc. Topic and time based media affinity estimation
US9053517B2 (en) * 2011-07-29 2015-06-09 Rb.tv., Inc. Devices, systems, and methods for aggregating, controlling, enhancing, archiving, and analyzing social media for events
US9443518B1 (en) 2011-08-31 2016-09-13 Google Inc. Text transcript generation from a communication session
CN103077179B (zh) * 2011-09-12 2016-08-31 克利特股份有限公司 用于显示社交网络的用户的个人时间线的计算机实现方法,计算机系统及其计算机可读介质
US9946430B2 (en) 2011-09-21 2018-04-17 Facebook, Inc. Displaying social networking system user information via a timeline interface
US8726142B2 (en) * 2011-09-21 2014-05-13 Facebook, Inc. Selecting social networking system user information for display via a timeline interface
US10296159B2 (en) 2011-09-21 2019-05-21 Facebook, Inc. Displaying dynamic user interface elements in a social networking system
US9661364B2 (en) * 2011-09-27 2017-05-23 Verizon Patent And Licensing Inc. Recommended media content based channel surfing methods and systems
WO2013049774A2 (en) * 2011-09-30 2013-04-04 Metavana, Inc. Sentiment analysis from social media content
US9026592B1 (en) 2011-10-07 2015-05-05 Google Inc. Promoting user interaction based on user activity in social networking services
WO2013070802A1 (en) * 2011-11-07 2013-05-16 Finitiv Corporation System and method for indexing and annotation of video content
US9098344B2 (en) * 2011-12-27 2015-08-04 Microsoft Technology Licensing, Llc Cloud-edge topologies
JP2015511418A (ja) * 2012-01-06 2015-04-16 トムソン ライセンシングThomson Licensing ソーシャルメッセージをコンテンツタイムラインと同期化させる方法及びシステム
US9183259B1 (en) 2012-01-13 2015-11-10 Google Inc. Selecting content based on social significance
US8843491B1 (en) * 2012-01-24 2014-09-23 Google Inc. Ranking and ordering items in stream
US9143742B1 (en) 2012-01-30 2015-09-22 Google Inc. Automated aggregation of related media content
US8645485B1 (en) * 2012-01-30 2014-02-04 Google Inc. Social based aggregation of related media content
US9177065B1 (en) 2012-02-09 2015-11-03 Google Inc. Quality score for posts in social networking services
US20130232412A1 (en) * 2012-03-02 2013-09-05 Nokia Corporation Method and apparatus for providing media event suggestions
EP2824916A4 (en) * 2012-03-08 2015-10-21 Nec Corp DISPLAY SYSTEM, DISPLAY DEVICE, DISPLAY METHOD, AND PROGRAM
US20150026744A1 (en) * 2012-03-08 2015-01-22 Nec Casio Mobile Communications, Ltd. Display system, display apparatus, display method, and program
US8995822B2 (en) 2012-03-14 2015-03-31 General Instrument Corporation Sentiment mapping in a media content item
US9106979B2 (en) * 2012-03-14 2015-08-11 Arris Technology, Inc. Sentiment mapping in a media content item
US10681427B2 (en) 2012-03-14 2020-06-09 Arris Enterprises Llc Sentiment mapping in a media content item
US20130263166A1 (en) 2012-03-27 2013-10-03 Bluefin Labs, Inc. Social Networking System Targeted Message Synchronization
US11588778B2 (en) * 2012-03-30 2023-02-21 Fox Sports Productions, Llc System and method for enhanced second screen experience
US20130263019A1 (en) * 2012-03-30 2013-10-03 Maria G. Castellanos Analyzing social media
US9301016B2 (en) 2012-04-05 2016-03-29 Facebook, Inc. Sharing television and video programming through social networking
US9319372B2 (en) 2012-04-13 2016-04-19 RTReporter BV Social feed trend visualization
US20130283143A1 (en) * 2012-04-24 2013-10-24 Eric David Petajan System for Annotating Media Content for Automatic Content Understanding
US10389779B2 (en) 2012-04-27 2019-08-20 Arris Enterprises Llc Information processing
US10277933B2 (en) 2012-04-27 2019-04-30 Arris Enterprises Llc Method and device for augmenting user-input information related to media content
US9386357B2 (en) 2012-04-27 2016-07-05 Arris Enterprises, Inc. Display of presentation elements
US9552124B2 (en) * 2012-04-27 2017-01-24 Mobitv, Inc. Character based search and discovery of media content
US10198444B2 (en) 2012-04-27 2019-02-05 Arris Enterprises Llc Display of presentation elements
US20130290232A1 (en) * 2012-04-30 2013-10-31 Mikalai Tsytsarau Identifying news events that cause a shift in sentiment
WO2013166411A1 (en) * 2012-05-03 2013-11-07 United Video Properties, Inc. Systems and methods for preventing access to a media asset segment during a fast-access playback operation
KR20130125047A (ko) * 2012-05-08 2013-11-18 삼성전자주식회사 디스플레이장치 및 컨텐츠 영상 제공장치 및 이들의 제어방법
US8566866B1 (en) * 2012-05-09 2013-10-22 Bluefin Labs, Inc. Web identity to social media identity correlation
US20130328921A1 (en) * 2012-06-08 2013-12-12 Ipinion, Inc. Utilizing Heat Maps to Represent Respondent Sentiments
US9584834B1 (en) 2012-06-25 2017-02-28 Google Inc. Video broadcasting with geolocation
US9460205B2 (en) 2012-07-20 2016-10-04 Google Inc. Crowdsourced video collaboration
US20140025755A1 (en) * 2012-07-20 2014-01-23 Google Inc. Inferring events based on mob source video
US8972242B2 (en) 2012-07-31 2015-03-03 Hewlett-Packard Development Company, L.P. Visual analysis of phrase extraction from a content stream
US9454519B1 (en) 2012-08-15 2016-09-27 Google Inc. Promotion and demotion of posts in social networking services
US9699485B2 (en) 2012-08-31 2017-07-04 Facebook, Inc. Sharing television and video programming through social networking
FR2994785A1 (fr) 2012-08-23 2014-02-28 France Telecom Procede de traitement d'un flux multimedia, terminal de communication, serveur et produit programme d'ordinateur correspondant.
US20140067370A1 (en) * 2012-08-31 2014-03-06 Xerox Corporation Learning opinion-related patterns for contextual and domain-dependent opinion detection
US8612211B1 (en) 2012-09-10 2013-12-17 Google Inc. Speech recognition and summarization
US9519723B2 (en) * 2012-09-18 2016-12-13 Adobe Systems Incorporated Aggregating electronic content items from different sources
US9691128B2 (en) 2012-09-20 2017-06-27 Facebook, Inc. Aggregating and displaying social networking system user information via a map interface
US9104667B2 (en) 2012-09-24 2015-08-11 International Business Machines Corporation Social media event detection and content-based retrieval
US9635438B2 (en) 2012-09-27 2017-04-25 Arris Enterprises, Inc. Providing secondary content to accompany a primary content item
WO2014052921A2 (en) * 2012-09-27 2014-04-03 University Of Utah Research Foundation Patient health record similarity measure
US8818037B2 (en) 2012-10-01 2014-08-26 Microsoft Corporation Video scene detection
WO2014059078A1 (en) * 2012-10-12 2014-04-17 Google Inc. Unsupervised content replay in live video
US9032434B2 (en) 2012-10-12 2015-05-12 Google Inc. Unsupervised content replay in live video
US9544647B2 (en) 2012-11-21 2017-01-10 Google Technology Holdings LLC Attention-based advertisement scheduling in time-shifted content
US8484676B1 (en) * 2012-11-21 2013-07-09 Motorola Mobility Llc Attention-based, multi-screen advertisement scheduling
US20140164506A1 (en) * 2012-12-10 2014-06-12 Rawllin International Inc. Multimedia message having portions of networked media content
US9721010B2 (en) * 2012-12-13 2017-08-01 Microsoft Technology Licensing, Llc Content reaction annotations
US10115202B2 (en) 2012-12-27 2018-10-30 Arria Data2Text Limited Method and apparatus for motion detection
WO2014102569A1 (en) * 2012-12-27 2014-07-03 Arria Data2Text Limited Method and apparatus for motion description
US9596207B1 (en) * 2012-12-31 2017-03-14 Google Inc. Bootstrap social network using event-related records
US10360582B2 (en) * 2013-01-09 2019-07-23 Dell Products L.P. Social commerce return on investment
US9510055B2 (en) 2013-01-23 2016-11-29 Sonos, Inc. System and method for a media experience social interface
JP2014142876A (ja) * 2013-01-25 2014-08-07 Sony Corp データ生成装置、コンテンツ再生装置、および記憶媒体
US10572466B2 (en) * 2013-02-27 2020-02-25 Hitachi Vantara Corporation Multiple collections of user-defined metadata for self-describing objects
US9165069B2 (en) * 2013-03-04 2015-10-20 Facebook, Inc. Ranking videos for a user
US9191422B2 (en) * 2013-03-15 2015-11-17 Arris Technology, Inc. Processing of social media for selected time-shifted multimedia content
US10025861B2 (en) * 2013-08-28 2018-07-17 Oath Inc. Prioritizing items from different categories in a news stream
US20160063122A1 (en) * 2013-04-16 2016-03-03 Hewlett-Packard Development Company, L.P. Event summarization
US10445115B2 (en) * 2013-04-18 2019-10-15 Verint Americas Inc. Virtual assistant focused user interfaces
US9553922B1 (en) * 2013-05-02 2017-01-24 Twitter, Inc. Media event based social networking interfaces
US20140337126A1 (en) * 2013-05-08 2014-11-13 Viki, Inc. Timed comments for media
US9251275B2 (en) 2013-05-16 2016-02-02 International Business Machines Corporation Data clustering and user modeling for next-best-action decisions
EP2811752B1 (en) * 2013-06-03 2018-08-15 Alcatel Lucent Synchronization between multimedia flows and social network threads
US10868682B2 (en) 2013-06-13 2020-12-15 Pushfor, Ltd. System and method for monitoring usage of an electronic document
US9418391B2 (en) * 2013-06-24 2016-08-16 Infosys Limited System for influencer scoring and methods thereof
KR101540686B1 (ko) * 2013-07-26 2015-08-03 주현선 동영상의 구간별 댓글과 통계정보 제공 장치 및 그 방법
WO2015021459A1 (en) * 2013-08-09 2015-02-12 Yang Shaofeng Method for processing and displaying real-time social data on map
US9154761B2 (en) * 2013-08-19 2015-10-06 Google Inc. Content-based video segmentation
US10282068B2 (en) 2013-08-26 2019-05-07 Venuenext, Inc. Game event display with a scrollable graphical game play feed
US9575621B2 (en) 2013-08-26 2017-02-21 Venuenext, Inc. Game event display with scroll bar and play event icons
US9299113B2 (en) 2013-09-13 2016-03-29 Microsoft Technology Licensing, Llc Social media driven information interface
EP3047396A1 (en) * 2013-09-16 2016-07-27 Thomson Licensing Browsing videos by searching multiple user comments and overlaying those into the content
US20150088878A1 (en) * 2013-09-23 2015-03-26 Google Inc. Discovering New Media Items for a User
EP2858310A1 (en) * 2013-10-07 2015-04-08 Alcatel Lucent Association of a social network message with a related multimedia flow
US9516259B2 (en) * 2013-10-22 2016-12-06 Google Inc. Capturing media content in accordance with a viewer expression
US9471944B2 (en) * 2013-10-25 2016-10-18 The Mitre Corporation Decoders for predicting author age, gender, location from short texts
KR102268052B1 (ko) * 2013-11-11 2021-06-22 삼성전자주식회사 디스플레이 장치, 서버 장치 및 그 제어 방법
US9565245B1 (en) * 2013-11-25 2017-02-07 Twitter, Inc. Promoting time-based content through social networking systems
US9984427B2 (en) * 2013-12-02 2018-05-29 Qbase, LLC Data ingestion module for event detection and increased situational awareness
US9578377B1 (en) * 2013-12-03 2017-02-21 Venuenext, Inc. Displaying a graphical game play feed based on automatically detecting bounds of plays or drives using game related data sources
US11042274B2 (en) * 2013-12-04 2021-06-22 Autodesk, Inc. Extracting demonstrations from in-situ video content
US9467744B2 (en) * 2013-12-30 2016-10-11 Verizon and Redbox Digital Entertainment Services, LLC Comment-based media classification
US9965776B2 (en) * 2013-12-30 2018-05-08 Verizon and Redbox Digital Entertainment Services, LLC Digital content recommendations based on user comments
US20150213002A1 (en) * 2014-01-24 2015-07-30 International Business Machines Corporation Personal emotion state monitoring from social media
EP2902924A1 (en) * 2014-01-30 2015-08-05 Alcatel Lucent Method for automatically selecting a real-time video stream among a plurality of available real-time video streams, and associated system
US20150220498A1 (en) 2014-02-05 2015-08-06 Sonos, Inc. Remote Creation of a Playback Queue for a Future Event
US9876848B1 (en) * 2014-02-21 2018-01-23 Twitter, Inc. Television key phrase detection
US9679054B2 (en) 2014-03-05 2017-06-13 Sonos, Inc. Webpage media playback
US9857950B2 (en) 2014-03-24 2018-01-02 International Business Machines Corporation Unified filtered social media content stream for single user interface access
EP2925009A1 (en) * 2014-03-26 2015-09-30 Thomson Licensing Viewer engagement estimating system and method of estimating viewer engagement
US9953060B2 (en) 2014-03-31 2018-04-24 Maruthi Siva P Cherukuri Personalized activity data gathering based on multi-variable user input and multi-dimensional schema
US9898685B2 (en) 2014-04-29 2018-02-20 At&T Intellectual Property I, L.P. Method and apparatus for analyzing media content
US9342267B2 (en) 2014-04-29 2016-05-17 Cisco Technology, Inc. Displaying regions of user interest in sharing sessions
US20150324552A1 (en) 2014-05-12 2015-11-12 Sonos, Inc. Share Restriction for Media Items
US20150332309A1 (en) * 2014-05-13 2015-11-19 Ispot.Tv, Inc. Advertisement scoring system and method
US20150347561A1 (en) * 2014-05-27 2015-12-03 Thomson Licensing Methods and systems for media collaboration groups
US20150356084A1 (en) 2014-06-05 2015-12-10 Sonos, Inc. Social Queue
US10183224B2 (en) 2014-06-12 2019-01-22 Michael Neil MACCALLUM Fantasy sports manager for various devices
US9665551B2 (en) 2014-08-05 2017-05-30 Linkedin Corporation Leveraging annotation bias to improve annotations
US9874997B2 (en) 2014-08-08 2018-01-23 Sonos, Inc. Social playback queues
US9690540B2 (en) 2014-09-24 2017-06-27 Sonos, Inc. Social media queue
WO2016049329A1 (en) 2014-09-24 2016-03-31 Sonos, Inc. Social media queue
US9667679B2 (en) 2014-09-24 2017-05-30 Sonos, Inc. Indicating an association between a social-media account and a media playback system
US10645130B2 (en) 2014-09-24 2020-05-05 Sonos, Inc. Playback updates
US9959087B2 (en) * 2014-09-24 2018-05-01 Sonos, Inc. Media item context from social media
WO2016049342A1 (en) 2014-09-24 2016-03-31 Sonos, Inc. Social media connection recommendations based on playback information
US10672030B2 (en) * 2014-09-25 2020-06-02 International Business Machines Corporation Targeted advertisements from intended recipient predictions derived from user information
US10652127B2 (en) 2014-10-03 2020-05-12 The Nielsen Company (Us), Llc Fusing online media monitoring data with secondary online data feeds to generate ratings data for online media exposure
KR20160054134A (ko) * 2014-11-05 2016-05-16 삼성전자주식회사 방송 서비스 제공 방법 및 장치
US9977568B2 (en) * 2015-02-27 2018-05-22 Wipro Limited Method and device for optimizing arrangement of an icon on display unit of device
US20160260108A1 (en) * 2015-03-05 2016-09-08 David Brian Bracewell Occasion-based consumer analytics
US10834436B2 (en) * 2015-05-27 2020-11-10 Arris Enterprises Llc Video classification using user behavior from a network digital video recorder
US11252450B2 (en) * 2015-05-27 2022-02-15 Arris Enterprises Llc Video classification using user behavior from a network digital video recorder
US10923116B2 (en) 2015-06-01 2021-02-16 Sinclair Broadcast Group, Inc. Break state detection in content management systems
WO2016196693A1 (en) 2015-06-01 2016-12-08 Miller Benjamin Aaron Content segmentation and time reconciliation
CA2988108C (en) 2015-06-01 2023-10-10 Benjamin Aaron Miller Break state detection in content management systems
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10133443B2 (en) 2015-06-14 2018-11-20 Google Llc Systems and methods for smart home automation using a multifunction status and entry point icon
USD809522S1 (en) 2015-06-14 2018-02-06 Google Inc. Display screen with animated graphical user interface for an alert screen
USD803241S1 (en) 2015-06-14 2017-11-21 Google Inc. Display screen with animated graphical user interface for an alert screen
USD796540S1 (en) 2015-06-14 2017-09-05 Google Inc. Display screen with graphical user interface for mobile camera history having event-specific activity notifications
USD812076S1 (en) 2015-06-14 2018-03-06 Google Llc Display screen with graphical user interface for monitoring remote video camera
USD807376S1 (en) 2015-06-14 2018-01-09 Google Inc. Display screen with animated graphical user interface for smart home automation system having a multifunction status
USD797131S1 (en) 2015-06-14 2017-09-12 Google Inc. Display screen with user interface for mode selector icons
US11513658B1 (en) 2015-06-24 2022-11-29 Amazon Technologies, Inc. Custom query of a media universe database
US10319047B2 (en) * 2015-06-29 2019-06-11 International Business Machines Corporation Identification of life events within social media conversations
US10268773B2 (en) * 2015-06-30 2019-04-23 International Business Machines Corporation Navigating a website using visual analytics and a dynamic data source
WO2017015114A1 (en) 2015-07-17 2017-01-26 Tribune Broadcasting Company, Llc Media production system with social media feature
US10382824B2 (en) 2015-07-17 2019-08-13 Tribune Broadcasting Company, Llc Video production system with content extraction feature
US10219026B2 (en) * 2015-08-26 2019-02-26 Lg Electronics Inc. Mobile terminal and method for playback of a multi-view video
US10162870B2 (en) 2015-09-30 2018-12-25 International Business Machines Corporation Historical summary visualizer for news events
US10057651B1 (en) * 2015-10-05 2018-08-21 Twitter, Inc. Video clip creation using social media
US10622018B2 (en) 2015-10-16 2020-04-14 Tribune Broadcasting Company, Llc Video-production system with metadata-based DVE feature
US10762132B2 (en) * 2015-10-29 2020-09-01 Pixured, Inc. System for referring to and/or embedding posts, videos or digital media within another post, video, digital data or digital media within 2D, 3D, 360 degree or spherical applications whereby to reach convergence or grouping
US11257000B2 (en) * 2015-12-14 2022-02-22 Zoomph, Inc. Systems, apparatus, and methods for generating prediction sets based on a known set of features
US9524469B1 (en) * 2015-12-14 2016-12-20 MetroStar Systems, Inc. Systems, apparatus, and methods for generating prediction sets based on a known set of features
US9830533B2 (en) * 2015-12-30 2017-11-28 International Business Machines Corporation Analyzing and exploring images posted on social media
US11367149B2 (en) * 2016-01-15 2022-06-21 Carnegie Mellon University Pattern identification in time-series social media data, and output-dynamics engineering for a dynamic system having one or more multi-scale time-series data sets
KR102431180B1 (ko) * 2016-01-21 2022-08-10 주식회사 알티미디어 관계 정보 기반의 성장형 콘텐츠 서비스 방법 및 시스템
US10181208B2 (en) 2016-02-10 2019-01-15 Microsoft Technology Licensing, Llc Custom heatmaps
US9654360B1 (en) 2016-02-29 2017-05-16 Wowza Media Systems, LLC Coordinating analytics between media player and server
US10116537B2 (en) 2016-02-29 2018-10-30 Wowza Media Systems, LLC Media player analytics
US10575036B2 (en) * 2016-03-02 2020-02-25 Google Llc Providing an indication of highlights in a video content item
US11146865B2 (en) * 2016-03-03 2021-10-12 Comcast Cable Communications, Llc Determining points of interest in a content item
WO2017150752A1 (ko) * 2016-03-04 2017-09-08 엄지홍 무한 스크롤 환경에서 클립 기능 제공 방법
WO2017157438A1 (en) * 2016-03-16 2017-09-21 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for real-time network event processing
WO2017176808A1 (en) 2016-04-04 2017-10-12 Twitter, Inc. Live video classification and preview selection
US9774907B1 (en) 2016-04-05 2017-09-26 International Business Machines Corporation Tailored audio content delivery
US10311104B2 (en) 2016-04-13 2019-06-04 Google Llc Video competition discovery and recommendation
US10075556B2 (en) * 2016-04-20 2018-09-11 Disney Enterprises, Inc. Systems and methods for selecting a portion of a content segment to distribute via on online platform
US10055608B2 (en) * 2016-04-26 2018-08-21 Adobe Systems Incorporated Data management for combined data using structured data governance metadata
US10389718B2 (en) 2016-04-26 2019-08-20 Adobe Inc. Controlling data usage using structured data governance metadata
US9971812B2 (en) 2016-04-26 2018-05-15 Adobe Systems Incorporated Data management using structured data governance metadata
US10154312B2 (en) * 2016-05-09 2018-12-11 Facebook, Inc. Systems and methods for ranking and providing related media content based on signals
US10855765B2 (en) 2016-05-20 2020-12-01 Sinclair Broadcast Group, Inc. Content atomization
US9912424B2 (en) * 2016-05-27 2018-03-06 The Nielsen Company (Us), Llc Methods and apparatus to estimate ratings for media assets using social media
DK179593B1 (en) 2016-06-12 2019-02-25 Apple Inc. USER INTERFACE FOR MANAGING CONTROLLABLE EXTERNAL DEVICES
US10489016B1 (en) * 2016-06-20 2019-11-26 Amazon Technologies, Inc. Identifying and recommending events of interest in real-time media content
US9936239B2 (en) 2016-06-28 2018-04-03 Intel Corporation Multiple stream tuning
US10685070B2 (en) 2016-06-30 2020-06-16 Facebook, Inc. Dynamic creative optimization for effectively delivering content
US20180014037A1 (en) * 2016-07-09 2018-01-11 N. Dilip Venkatraman Method and system for switching to dynamically assembled video during streaming of live video
USD882583S1 (en) 2016-07-12 2020-04-28 Google Llc Display screen with graphical user interface
US10263802B2 (en) 2016-07-12 2019-04-16 Google Llc Methods and devices for establishing connections with remote cameras
US10404770B2 (en) 2016-07-15 2019-09-03 Tribune Broadcasting Company, Llc Video-production system with social-media features
US10521481B2 (en) 2016-07-15 2019-12-31 Tribune Broadcasting Company, Llc Video-production system with social-media features
EP3488618B1 (en) 2016-07-21 2021-01-13 Twitter, Inc. Live video streaming services with machine-learning based highlight replays
WO2018049254A1 (en) * 2016-09-09 2018-03-15 Cayke, Inc. System and method of creating, analyzing, and categorizing media
US10885131B2 (en) 2016-09-12 2021-01-05 Ebrahim Bagheri System and method for temporal identification of latent user communities using electronic content
US10795560B2 (en) 2016-09-30 2020-10-06 Disney Enterprises, Inc. System and method for detection and visualization of anomalous media events
USD843398S1 (en) 2016-10-26 2019-03-19 Google Llc Display screen with graphical user interface for a timeline-video relationship presentation for alert events
US11238290B2 (en) 2016-10-26 2022-02-01 Google Llc Timeline-video relationship processing for alert events
US10386999B2 (en) 2016-10-26 2019-08-20 Google Llc Timeline-video relationship presentation for alert events
US10467347B1 (en) 2016-10-31 2019-11-05 Arria Data2Text Limited Method and apparatus for natural language document orchestrator
US11157574B2 (en) 2016-11-03 2021-10-26 Thomson Reuters Enterprise Centre Gmbh Systems and methods for event detection and clustering
US11205103B2 (en) 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
US10572908B2 (en) 2017-01-03 2020-02-25 Facebook, Inc. Preview of content items for dynamic creative optimization
US10922713B2 (en) 2017-01-03 2021-02-16 Facebook, Inc. Dynamic creative optimization rule engine for effective content delivery
US10819810B2 (en) * 2017-01-05 2020-10-27 International Business Machines Corporation Event affinity detangling with broadcasts rolling over time zones
US10558697B2 (en) * 2017-02-21 2020-02-11 International Business Machines Corporation Segmenting a set of media data using a set of social networking data
JP6806589B2 (ja) * 2017-02-27 2021-01-06 日本放送協会 情報判定モデル学習装置、情報判定装置およびそれらのプログラム
US10318350B2 (en) 2017-03-20 2019-06-11 International Business Machines Corporation Self-adjusting environmentally aware resource provisioning
US10158897B2 (en) * 2017-03-28 2018-12-18 International Business Machines Corporation Location-based event affinity detangling for rolling broadcasts
US10277950B2 (en) 2017-04-17 2019-04-30 Facebook, Inc. Matching and ranking content items
US10819921B2 (en) 2017-05-25 2020-10-27 Google Llc Camera assembly having a single-piece cover element
US10683962B2 (en) 2017-05-25 2020-06-16 Google Llc Thermal management for a compact electronic device
US10972685B2 (en) 2017-05-25 2021-04-06 Google Llc Video camera assembly having an IR reflector
US10574601B2 (en) * 2017-08-03 2020-02-25 International Business Machines Corporation Managing and displaying online messages along timelines
US11025693B2 (en) 2017-08-28 2021-06-01 Banjo, Inc. Event detection from signal data removing private information
US10313413B2 (en) 2017-08-28 2019-06-04 Banjo, Inc. Detecting events from ingested communication signals
US10552683B2 (en) * 2018-04-27 2020-02-04 Banjo, Inc. Ingesting streaming signals
US10581945B2 (en) 2017-08-28 2020-03-03 Banjo, Inc. Detecting an event from signal data
US10324948B1 (en) 2018-04-27 2019-06-18 Banjo, Inc. Normalizing ingested signals
US20190251138A1 (en) 2018-02-09 2019-08-15 Banjo, Inc. Detecting events from features derived from multiple ingested signals
US10404840B1 (en) * 2018-04-27 2019-09-03 Banjo, Inc. Ingesting streaming signals
US10257058B1 (en) * 2018-04-27 2019-04-09 Banjo, Inc. Ingesting streaming signals
US11836811B2 (en) * 2017-08-31 2023-12-05 What'scommon, Inc. System and method for event-based pet searching on social media
US20190090023A1 (en) * 2017-09-19 2019-03-21 Sling Media L.L.C. Intelligent filtering and presentation of video content segments based on social media identifiers
US11132541B2 (en) 2017-09-29 2021-09-28 The Mitre Corporation Systems and method for generating event timelines using human language technology
US10349097B2 (en) * 2017-10-27 2019-07-09 Mti Film, Llc Metadata editor for multimedia delivery
US10417500B2 (en) 2017-12-28 2019-09-17 Disney Enterprises, Inc. System and method for automatic generation of sports media highlights
US10755115B2 (en) * 2017-12-29 2020-08-25 Here Global B.V. Method, apparatus, and system for generating synthetic image data for machine learning
US10846151B2 (en) 2018-04-13 2020-11-24 safeXai, Inc. Notifying entities of relevant events removing private information
US10970184B2 (en) 2018-02-09 2021-04-06 Banjo, Inc. Event detection removing private information
US10423688B1 (en) 2018-04-13 2019-09-24 Banjo, Inc. Notifying entities of relevant events
US10585724B2 (en) 2018-04-13 2020-03-10 Banjo, Inc. Notifying entities of relevant events
US10628601B2 (en) * 2018-02-09 2020-04-21 Banjo, Inc. Detecting events from features derived from ingested signals
US10261846B1 (en) 2018-02-09 2019-04-16 Banjo, Inc. Storing and verifying the integrity of event related data
US10313865B1 (en) 2018-04-27 2019-06-04 Banjo, Inc. Validating and supplementing emergency call information
US10324935B1 (en) 2018-02-09 2019-06-18 Banjo, Inc. Presenting event intelligence and trends tailored per geographic area granularity
US11159585B2 (en) 2018-03-14 2021-10-26 At&T Intellectual Property I, L.P. Content delivery and consumption with affinity-based remixing
US10353934B1 (en) 2018-04-27 2019-07-16 Banjo, Inc. Detecting an event from signals in a listening area
US10327116B1 (en) 2018-04-27 2019-06-18 Banjo, Inc. Deriving signal location from signal content
US10904720B2 (en) 2018-04-27 2021-01-26 safeXai, Inc. Deriving signal location information and removing private information from it
KR102700141B1 (ko) 2018-05-07 2024-08-29 애플 인크. 라이브 비디오 피드들 및 기록된 비디오를 보기 위한 사용자 인터페이스들
US11269943B2 (en) * 2018-07-26 2022-03-08 JANZZ Ltd Semantic matching system and method
US11361039B2 (en) 2018-08-13 2022-06-14 International Business Machines Corporation Autodidactic phenological data collection and verification
JP7223848B2 (ja) 2018-11-15 2023-02-16 ソニー・インタラクティブエンタテインメント エルエルシー ゲーミングにおける動的な音楽生成
US11328700B2 (en) 2018-11-15 2022-05-10 Sony Interactive Entertainment LLC Dynamic music modification
US11109105B2 (en) 2019-01-11 2021-08-31 Sharp Nec Display Solutions, Ltd. Graphical user interface for insights on viewing of media content
US10638206B1 (en) 2019-01-28 2020-04-28 International Business Machines Corporation Video annotation based on social media trends
US11710037B2 (en) 2019-01-28 2023-07-25 Walmart Apollo, Llc Systems and methods for altering user interfaces using predicted user activity
US11314930B2 (en) 2019-02-11 2022-04-26 Google Llc Generating and provisioning of additional content for source perspective(s) of a document
US10521655B1 (en) 2019-02-11 2019-12-31 Google Llc Generating and provisioning of additional content for biased portion(s) of a document
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US10582343B1 (en) 2019-07-29 2020-03-03 Banjo, Inc. Validating and supplementing emergency call information
US10999566B1 (en) * 2019-09-06 2021-05-04 Amazon Technologies, Inc. Automated generation and presentation of textual descriptions of video content
US10997625B1 (en) * 2019-12-11 2021-05-04 Cloudinary Ltd. System, device, and method for determining predicted annoyance level of multimedia content
US20210209629A1 (en) * 2020-01-02 2021-07-08 Adobe Inc. Continuous updating of predicted event outcomes using real-time audience behavior
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11843574B2 (en) 2020-05-21 2023-12-12 Snap Inc. Featured content collection interface
US11589010B2 (en) 2020-06-03 2023-02-21 Apple Inc. Camera and visitor user interfaces
US11657614B2 (en) 2020-06-03 2023-05-23 Apple Inc. Camera and visitor user interfaces
US11809958B2 (en) 2020-06-10 2023-11-07 Capital One Services, Llc Systems and methods for automatic decision-making with user-configured criteria using multi-channel data inputs
EP4189682A1 (en) 2020-09-05 2023-06-07 Apple Inc. User interfaces for managing audio for media items
KR102443041B1 (ko) * 2021-02-26 2022-10-14 주식회사 페스타 이벤트간 유사성 측정을 통한 새로운 이벤트의 수요 예측 방법 및 장치
US20220365667A1 (en) 2021-05-15 2022-11-17 Apple Inc. User interfaces for managing accessories
US20230010938A1 (en) * 2021-07-06 2023-01-12 Spherex, Inc. Content genome generation and management system in a multi-modal artificial intelligence system for media assets
US12412107B2 (en) 2021-12-29 2025-09-09 Insight Direct Usa, Inc. Blockchain recordation and validation of video data
US11704891B1 (en) 2021-12-29 2023-07-18 Insight Direct Usa, Inc. Dynamically configured extraction, preprocessing, and publishing of a region of interest that is a subset of streaming video data
US12379827B2 (en) 2022-06-03 2025-08-05 Apple Inc. User interfaces for managing accessories
US11778167B1 (en) 2022-07-26 2023-10-03 Insight Direct Usa, Inc. Method and system for preprocessing optimization of streaming video data
US20240040115A1 (en) * 2022-07-26 2024-02-01 Insight Direct Usa, Inc. Scheduled scene modification for extraction, preprocessing, and publishing of streaming video data
CN117909002A (zh) * 2022-10-17 2024-04-19 抖音视界有限公司 用于内容呈现的方法、装置、设备和存储介质
US20250088386A1 (en) * 2023-09-12 2025-03-13 Hamilton Sundstrand Corporation Line replaceable unit aircraft data prediction and configuration

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US130580A (en) * 1872-08-20 Improvement in cooking-stoves
US59348A (en) * 1866-11-06 Improved composition for roofing
US270541A (en) * 1883-01-09 Locomotive ash-pan
US6366296B1 (en) * 1998-09-11 2002-04-02 Xerox Corporation Media browser using multimodal analysis
US6317722B1 (en) * 1998-09-18 2001-11-13 Amazon.Com, Inc. Use of electronic shopping carts to generate personal recommendations
AU2001234456A1 (en) 2000-01-13 2001-07-24 Erinmedia, Inc. Privacy compliant multiple dataset correlation system
NZ503817A (en) 2000-04-07 2003-05-30 Cool 123 Ltd Survey reply using short message service mobile services
US8271341B2 (en) 2000-04-12 2012-09-18 Music Choice Media content delivery systems and methods
US20020152463A1 (en) * 2000-11-16 2002-10-17 Dudkiewicz Gil Gavriel System and method for personalized presentation of video programming events
US7444660B2 (en) * 2000-11-16 2008-10-28 Meevee, Inc. System and method for generating metadata for video programming events
US7155412B2 (en) * 2001-12-17 2006-12-26 International Business Machines Corporation Billing for use of a telephony device
US20030115188A1 (en) 2001-12-19 2003-06-19 Narayan Srinivasa Method and apparatus for electronically extracting application specific multidimensional information from a library of searchable documents and for providing the application specific information to a user application
US7672864B2 (en) 2004-01-09 2010-03-02 Ricoh Company Ltd. Generating and displaying level-of-interest values
JP2005223534A (ja) 2004-02-04 2005-08-18 Victor Co Of Japan Ltd 受信装置および集計グラフ作成方法
US8010460B2 (en) * 2004-09-02 2011-08-30 Linkedin Corporation Method and system for reputation evaluation of online users in a social networking scheme
US8185543B1 (en) 2004-11-10 2012-05-22 Google Inc. Video image-based querying for video content
JP4270119B2 (ja) * 2004-11-30 2009-05-27 日本電信電話株式会社 代表画像選定方法及び装置及びプログラム
US7801910B2 (en) * 2005-11-09 2010-09-21 Ramp Holdings, Inc. Method and apparatus for timed tagging of media content
ES2386977T3 (es) 2005-11-29 2012-09-10 Google Inc. Aplicaciones sociales e interactivas para medios masivos
US7707246B1 (en) 2006-02-22 2010-04-27 Qurio Holdings, Inc. Creating a social network around recorded media
WO2007128003A2 (en) 2006-03-28 2007-11-08 Motionbox, Inc. System and method for enabling social browsing of networked time-based media
US8504575B2 (en) * 2006-03-29 2013-08-06 Yahoo! Inc. Behavioral targeting system
US8019815B2 (en) 2006-04-24 2011-09-13 Keener Jr Ellis Barlow Interactive audio/video method on the internet
US7720835B2 (en) * 2006-05-05 2010-05-18 Visible Technologies Llc Systems and methods for consumer-generated media reputation management
US20080059897A1 (en) * 2006-09-02 2008-03-06 Whattoread, Llc Method and system of social networking through a cloud
US8214272B2 (en) 2006-09-05 2012-07-03 Rafael A. Sosa Web site valuation
US8271429B2 (en) 2006-09-11 2012-09-18 Wiredset Llc System and method for collecting and processing data
US8176191B2 (en) 2006-11-30 2012-05-08 Red Hat, Inc. Automated identification of high/low value content based on social feedback
US8161069B1 (en) * 2007-02-01 2012-04-17 Eighty-Three Degrees, Inc. Content sharing using metadata
US20100274820A1 (en) 2007-03-28 2010-10-28 O'brien Christopher J System and method for autogeneration of long term media data from networked time-based media
US20090063995A1 (en) * 2007-08-27 2009-03-05 Samuel Pierce Baron Real Time Online Interaction Platform
KR101742256B1 (ko) 2007-09-26 2017-05-31 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US7853622B1 (en) * 2007-11-01 2010-12-14 Google Inc. Video-related recommendations using link structure
US20090164929A1 (en) * 2007-12-20 2009-06-25 Microsoft Corporation Customizing Search Results
US9535988B2 (en) * 2007-12-21 2017-01-03 Yahoo! Inc. Blog-based video summarization
US8832753B2 (en) * 2008-01-16 2014-09-09 Apple Inc. Filtering and tailoring multimedia content based on observed user behavior
US8151194B1 (en) 2008-03-26 2012-04-03 Google Inc. Visual presentation of video usage statistics
US8452855B2 (en) * 2008-06-27 2013-05-28 Yahoo! Inc. System and method for presentation of media related to a context
US20100042612A1 (en) * 2008-07-11 2010-02-18 Gomaa Ahmed A Method and system for ranking journaled internet content and preferences for use in marketing profiles
US9152722B2 (en) * 2008-07-22 2015-10-06 Yahoo! Inc. Augmenting online content with additional content relevant to user interest
EP2311277A4 (en) 2008-08-05 2014-01-08 Mediafriends Inc SMS TECHNOLOGY FOR COMPUTER DEVICES
US9892103B2 (en) * 2008-08-18 2018-02-13 Microsoft Technology Licensing, Llc Social media guided authoring
US20110179385A1 (en) * 2008-09-24 2011-07-21 Wencheng Li Content classification utilizing a reduced description palette to simplify content analysis
US8321401B2 (en) * 2008-10-17 2012-11-27 Echostar Advanced Technologies L.L.C. User interface with available multimedia content from multiple multimedia websites
US8032508B2 (en) * 2008-11-18 2011-10-04 Yahoo! Inc. System and method for URL based query for retrieving data related to a context
US8024311B2 (en) * 2008-12-05 2011-09-20 Eastman Kodak Company Identifying media assets from contextual information
US20100191728A1 (en) 2009-01-23 2010-07-29 James Francis Reilly Method, System Computer Program, and Apparatus for Augmenting Media Based on Proximity Detection
US8539359B2 (en) * 2009-02-11 2013-09-17 Jeffrey A. Rapaport Social network driven indexing system for instantly clustering people with concurrent focus on same topic into on-topic chat rooms and/or for generating on-topic search results tailored to user preferences regarding topic
US20100281108A1 (en) * 2009-05-01 2010-11-04 Cohen Ronald H Provision of Content Correlated with Events
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
MX2012000724A (es) 2009-07-16 2012-06-25 Bluefin Lab Inc Metodo de estimacion e indicacion de interes social en medios a base de tiempo.

Also Published As

Publication number Publication date
US20110040760A1 (en) 2011-02-17
US20130086489A1 (en) 2013-04-04
KR101816113B1 (ko) 2018-01-08
EP3009975A1 (en) 2016-04-20
EP2454712A1 (en) 2012-05-23
KR102068790B1 (ko) 2020-01-21
US20170075995A1 (en) 2017-03-16
CA3149767A1 (en) 2011-01-20
US9218101B2 (en) 2015-12-22
US20110041080A1 (en) 2011-02-17
US8516374B2 (en) 2013-08-20
KR20180005277A (ko) 2018-01-15
CA3041557C (en) 2022-03-22
EP2454712A4 (en) 2013-01-23
KR102112973B1 (ko) 2020-05-19
CA3041557A1 (en) 2011-01-20
WO2011009101A1 (en) 2011-01-20
CA2771379A1 (en) 2011-01-20
US20210397651A1 (en) 2021-12-23
US11048752B2 (en) 2021-06-29
US10445368B2 (en) 2019-10-15
KR101944469B1 (ko) 2019-01-31
US10133818B2 (en) 2018-11-20
JP5795580B2 (ja) 2015-10-14
KR20190011829A (ko) 2019-02-07
KR20120088650A (ko) 2012-08-08
KR20200008059A (ko) 2020-01-22
CA2771379C (en) 2019-05-21
JP2012533803A (ja) 2012-12-27
US9542489B2 (en) 2017-01-10
US20160246801A1 (en) 2016-08-25
US20200073888A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
US11048752B2 (en) Estimating social interest in time-based media
US11574321B2 (en) Generating audience response metrics and ratings from social interest in time-based media
US8898698B2 (en) Cross media targeted message synchronization
US9471936B2 (en) Web identity to social media identity correlation

Legal Events

Date Code Title Description
FG Grant or registration