WO2014007020A1 - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- WO2014007020A1 WO2014007020A1 PCT/JP2013/065544 JP2013065544W WO2014007020A1 WO 2014007020 A1 WO2014007020 A1 WO 2014007020A1 JP 2013065544 W JP2013065544 W JP 2013065544W WO 2014007020 A1 WO2014007020 A1 WO 2014007020A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- information
- image
- posting
- unit
- program
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Definitions
- the present invention relates to an information processing apparatus, an information processing method, and a program to be executed by the information processing apparatus.
- Patent Document 2 discloses a technique that can detect the face of a person as a subject from an image and display the name of the person. By using the technique disclosed in Patent Document 2, the user can quickly start writing a comment to be posted on a person who cannot immediately remember his name even when he / she looks at his face.
- JP 2000-324416 A Japanese Patent Laid-Open No. 2003-150617
- the portable terminal has a small operation area for inputting characters, and it takes time to input not only comments but also names of people and program titles. Therefore, when the user finishes writing a comment, the scene may be over, and it is difficult to post a comment in a timely manner.
- One of the objects of the present invention is to provide an information processing apparatus, an information processing method, and a program to be executed by a computer that can easily and quickly post a program being distributed or broadcast.
- An information processing apparatus detects a program that is being distributed or broadcasted, a display unit that displays a program posting column, an operation on an image displayed by the display unit, and a region in which the operation is detected
- An operation unit that outputs information indicating the position of the region
- an image recognition unit that extracts an image corresponding to the position of the detection region from a program image displayed on the display unit, and a server that distributes information displayed in the posting column
- the image extracted by the image recognition unit from the image recognition unit and the communication unit that communicates with each other via the network are received, the posting information related to the image is displayed on the display unit, and the moving path of the detection area received from the operation unit
- a control unit that transmits the posted information to the server via the communication unit when recognizing that an operation for moving the image of the posted information to the posting column has been performed based on the information.
- An information processing method is an information processing method executed by an information processing apparatus having a display unit and an operation unit, and displays a program being distributed or broadcast and a posting column of the program on the display unit,
- the operation unit outputs information indicating the position of the detection region, which is a region where an operation on the image displayed on the display unit is detected, an image corresponding to the position of the detection region is extracted from the program image displayed on the display unit,
- the posted information is transmitted to the server that distributes the information displayed in the posting column. Is.
- a program includes a procedure for causing an information processing apparatus having a display unit and an operation unit to display a program being distributed or broadcast and a posting column of the program on the display unit, and an operation for an image displayed on the display unit
- the operation unit When the operation unit outputs information indicating the position of the detection region that is the region where the detection is detected, a procedure for extracting an image corresponding to the position of the detection region from the program image displayed on the display unit, and a movement path of the detection region
- the procedure for transmitting the posted information to the server that distributes the information displayed in the posting column is executed. is there.
- FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment of the present invention.
- FIG. 2 is a block diagram for explaining an information processing system for posting to a broadcast program using the portable terminal of the present embodiment.
- FIG. 3 is a block diagram illustrating a configuration example of the mobile terminal according to the present embodiment.
- 4 is an external perspective view showing an example of the mobile terminal shown in FIG.
- FIG. 5 is an exploded perspective view showing a state in which a part of the mobile terminal shown in FIG. 4 is disassembled.
- FIG. 6 is a diagram illustrating an example of an image displayed on the display unit.
- FIG. 7 is a diagram for explaining coordinates set in common to the touch panel, the display unit, and the image recognition unit.
- FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment of the present invention.
- FIG. 2 is a block diagram for explaining an information processing system for posting to a broadcast program using the portable terminal of the present embodiment.
- FIG. 8A is a diagram illustrating an example of an image when a candidate list is displayed as a search result.
- FIG. 8B is a diagram for explaining a method for the user to select post information from the candidate list shown in FIG. 8A.
- FIG. 9 is a diagram illustrating an example where the operation article passes through the mark area.
- FIG. 10 is a diagram illustrating an example of post information that can be input in the case of a route via the mark A.
- FIG. 11 is a diagram illustrating an example when the control unit displays an image for character input on the display unit.
- FIG. 12 is a diagram illustrating an example of a series of operations from selection of a person image to transmission of post information.
- FIG. 13 is a flowchart showing an operation procedure of the mobile terminal according to the present embodiment.
- FIG. 13 is a flowchart showing an operation procedure of the mobile terminal according to the present embodiment.
- FIG. 14A is a diagram showing a specific example of a user operation from selection of information about a person in a program to posting.
- FIG. 14B is a diagram showing a specific example of a user operation from selection of information about a person in a program to posting.
- FIG. 14C is a diagram showing a specific example of user operations from selection of information about a person in a program to posting.
- FIG. 14D is a diagram illustrating a specific example of a user operation from selection of information about a person in a program to posting.
- FIG. 14E is a diagram showing a specific example of user operations from selection of information about a person in a program to posting.
- FIG. 14F is a diagram illustrating a specific example of user operations from selection of information about a person in a program to posting.
- FIG. 14G is a diagram illustrating a specific example of user operations from selection of information about a person in a program to posting.
- FIG. 15A is a diagram for explaining a case where link information of an official home page of a person in a program can be attached to posted information.
- FIG. 15B is a diagram for explaining a case where link information of an official home page of a person in a program can be attached to posted information.
- FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment of the present invention.
- the information processing apparatus 1 includes a display unit 7, an operation unit 5, an image recognition unit 6, a communication unit 8, and a control unit 2.
- the display unit 7 displays a program being distributed or a program being broadcast and a posting column for the program.
- the operation unit 5 detects an operation on the image displayed on the display unit 7 and outputs information indicating the position of a detection region that is a region where the operation is detected.
- the image recognition unit 6 extracts an image corresponding to the detection area from the image of the program displayed on the display unit 7.
- the communication unit 8 communicates with a server that distributes information displayed in the posting column via a network.
- control unit 2 When the control unit 2 receives the image extracted by the image recognition unit 6 from the image recognition unit 6, the control unit 2 causes the display unit 7 to display post information related to the image. When the control unit 2 recognizes that an operation for moving the image of the posting information to the posting column is performed based on the information on the movement path of the detection area received from the operation unit 5, the control unit 2 transmits the posting information to the communication unit 8. To the server via
- the posting information related to the image is displayed. And if a user performs operation which moves the image of the posting information to a posting column using the operation part 5, an information processing apparatus will transmit the posting information to a server. Therefore, the user can post information related to the program being broadcast simply by moving the image of the information displayed on the display unit 7 to the posting column. It can be done easily and quickly.
- the information processing apparatus of the present invention may be a mobile phone including a smart phone, a simple mobile phone (Personal Handy-phone System), a PDA (Personal Digital Assistant), an electronic book, a portable game machine, or the like. .
- FIG. 2 is a block diagram for explaining an information processing system for posting to a broadcast program using the mobile terminal of the present embodiment.
- the mobile terminal 11 of the present embodiment is connected to the base station 23 by wireless communication.
- the base station 23 is connected to the server 21 via the network 25.
- the mobile terminal 11 receives a radio wave for reproducing a program from a broadcasting device (not shown) of the broadcasting station 33 via a cable and a radio tower 31.
- the radio wave transmitted from the radio tower 31 is assumed to be a terrestrial digital broadcast wave, and the network 25 is assumed to be the Internet.
- the server 21 accepts postings for programs broadcast by the broadcasting station 33 and distributes posting messages to the mobile terminal 11.
- the case where the number of mobile terminals 11 connected to the network 25 is one will be described.
- the number of mobile terminals is not limited to one and may be plural.
- information related to posting that the mobile terminal 11 transmits to the server 21 is referred to as post information
- information distributed by the server 21 for display in the posting column of the display unit of the mobile terminal 11 is referred to as a post message. Called.
- the server 21 distributes a program posting message to the mobile terminal 11 via the network 25, but a broadcasting device (not shown) of the broadcasting station 33 is connected to the network 25.
- the posted message received from the server 21 may be broadcast together with the program.
- the mobile terminal 11 has been described with respect to a case where a program is received by receiving radio waves, but a program distributed via the network 25 may be played. Further, although the case where the mobile terminal 11 is connected to the network 25 via the base station 23 by wireless communication will be described, it may be connected by wire. Further, a plurality of servers that publish websites are connected to the network 25, but in FIG. 2, illustration of these servers is omitted.
- FIG. 3 is a block diagram illustrating a configuration example of the mobile terminal according to the present embodiment.
- the mobile terminal 11 includes a storage unit 14, a touch panel 15, an image recognition unit 16, a display unit 17, a communication unit 18, a television unit 19, and a control unit 12.
- the control unit 12 is connected to each of the storage unit 14, the touch panel 15, the image recognition unit 16, the display unit 17, the communication unit 18, and the television unit 19 via the bus 13. The configuration of each unit shown in FIG. 3 will be described.
- the television unit 19 includes a television tuner that receives radio waves transmitted from the radio tower 31, and transmits a program reproduced based on the received radio waves to the control unit 12.
- the television unit 19 transmits “data broadcast information” included in the digital broadcast wave to the control unit 12.
- the data broadcast information includes weather forecasts and news information.
- the data broadcast information notified by the television unit 19 to the control unit 12 is the program name and appearance of the program being broadcast. It is assumed that the program information such as the name of the person and the time information such as the start time, end time, and current time of the program are included.
- the storage unit 14 stores in advance a plurality of types of post information including at least characters or symbols.
- post information related to the evaluation of the posting target the first group of good evaluation contents such as “Like, Nice !, GOOD !,...” And the first of bad evaluation contents such as anger and fear.
- Two groups are stored in the storage unit 14 in advance.
- an image of mark A for selecting the first group and an image of mark B for selecting the second group are stored in the storage unit 14.
- the post information may be a pictograph combining characters and symbols.
- the storage unit 14 stores information on the result of the search performed by the control unit 12 on the website on the network 25.
- information searched in the past by the user is registered in the storage unit 14 will be described.
- the storage unit 14 when the user inputs the name of the entertainer to the portable terminal 11 to execute the search, data in which the name information and the face image are paired is registered in the storage unit 14.
- the data may include not only the name of the entertainer but also the name of the drama that appeared in the past, information on the URL (Uniform Resource Locator) of the official homepage, and the like.
- URL Uniform Resource Locator
- not only a person but also an object such as a building or a product may be registered in the storage unit 14 as a combination of name information and an appearance image.
- the communication unit 18 is connected to the network 25 through the base station 23 by communicating with the base station 23 wirelessly.
- the communication unit 18 receives the posted message distributed by the server 21 via the base station 23 and the network 25, the communication unit 18 passes the posted message to the control unit 12.
- the communication unit 18 receives the posting information and the posting transmission signal including the instruction to transmit the posting information to the server 25 from the control unit 12, the communication unit 18 transmits the posting information to the server 21 via the base station 23 and the network 25. To do.
- the communication unit 18 acquires a web page from a website published on the network 25 in accordance with an instruction from the control unit 12.
- FIG. 4 is an external perspective view showing an example of the mobile terminal shown in FIG.
- FIG. 5 is an exploded perspective view showing a state in which a part of the mobile terminal shown in FIG. 4 is disassembled.
- the touch panel 15 corresponds to the operation unit 5 shown in FIG.
- the display unit 17 is, for example, an LCD (Liquid Crystal Display). As shown in FIG. 5, the touch panel 15 is superimposed on the display unit 17, and a configuration in which these are integrated is mounted on the main body 10 of the mobile terminal 11 as shown in FIG. 4.
- the touch panel 15 is composed of a transparent substrate on which a sensor is provided. Therefore, the user can view the image displayed on the display unit 17 provided on the lower layer side than the touch panel 15 through the touch panel 15.
- FIG. 6 is a diagram showing an example of an image displayed on the display unit. As shown in FIG. 6, from the left side of the figure, the display unit 17 displays a television area 71 in which programs being broadcast are displayed, a mark area 72 in which marks A and B are displayed, and a posted message. It is divided into three areas, a posting area 73.
- Common coordinates are set in advance on the substrate surface of the touch panel 15 and the screen of the display unit 17.
- the touch panel 15 transmits information on the coordinates of the detection area that is the detected area to the control unit 12.
- the operation article is a finger
- the coordinates set in common on the touch panel 15 and the display unit 17 will be described in detail later.
- Touch operation is an operation for the user to select an image displayed on the display unit 17.
- the touch panel 15 detects a touch operation in which the user touches a region on the substrate surface corresponding to the image desired to be selected by the finger, the touch panel 15 transmits the coordinates of the detection region corresponding to the image to the control unit 12.
- the touch panel 15 detects a touch operation on the image of the program displayed in the television area 71, the touch panel 15 transmits the coordinates of the detection area to the image recognition unit 16.
- the drag operation is an operation for moving the image selected by the touch operation in the image displayed on the display unit 17.
- the touch panel 15 detects a drag operation of sliding a finger touching the substrate surface to a position where the user wants to move the image selected by the user, the touch panel 15 transmits the coordinates of the movement path of the detection area to the control unit 12.
- the image recognizing unit 16 has a frame memory (not shown) that stores images that are sequentially displayed in the television area 71 of the display unit 17.
- the image recognition unit 16 receives information on the coordinates of the detection area from the touch panel 15, and if the coordinates corresponding to the detection area do not change for a certain period of time, the image stored in the frame memory at that time is made a still image.
- the fixed time is, for example, 0.5 seconds.
- the image recognition unit 16 extracts a human face or object from the image corresponding to the detection area, and passes the extracted image data to the control unit 12.
- a technique for extracting a face portion from a person image is disclosed in Patent Document 2, and detailed description thereof is omitted in this embodiment.
- the image recognition unit 16 detects the edge of the object, recognizes the outer shape, and transmits image data cut out along the outer shape to the control unit 12.
- the image recognition unit 16 notifies the control unit 12 of information indicating that it is neither a person nor an object.
- FIG. 7 is a diagram for explaining that the two-dimensional coordinates common to the frame memory (not shown) of the touch panel 15, the display unit 17, and the image recognition unit 16 are set.
- the x-axis is defined in the left-right direction of the figure
- the y-axis is defined in the up-down direction of the figure.
- the touch panel 15 displays the coordinates of the detection area. (X1, y1) is detected as
- the star image is an image of a program displayed in the television area 71
- the touch panel 15 transmits information on the coordinates (x1, y1) to the image recognition unit 16.
- the image recognition unit 16 extracts the outline of the object or the face of the person located at the coordinates.
- control unit 12 Next, the configuration of the control unit 12 will be described. In order to explain the operation of the control unit 12 in an easy-to-understand manner, the operation performed by the user using the touch panel 15 and the screen of the display unit 17 will be described.
- the control unit 12 includes a CPU (Central Processing Unit) (not shown) that executes processing according to a program, and a memory (not shown) that stores the program.
- a CPU Central Processing Unit
- memory not shown
- the control unit 12 causes the display unit 17 to display the program received from the television unit 19 in the television area 71, display the mark A and mark B in the mark area 72, and post the posted message received from the communication unit 18. Control to display in the area 73 is performed. At that time, the control unit 12 also transmits the image data of the program received from the television unit 19 to the image recognition unit 16. At this time, an example of the screen displayed by the display unit 17 is as shown in FIG.
- control unit 12 Upon receiving image data from the image recognition unit 16, the control unit 12 checks the storage unit 14 as to whether or not data including key data is registered using the image as key data that is data for search. . If there is data including key data in the storage unit 14, the name registered together with the image is read and displayed on the television area 71 of the display unit 17 so as to be superimposed on the program image.
- the control unit 12 searches the website on the network 25 for the web page including the key data via the communication unit 18, and starts from the website. Perform a network search to obtain. And the control part 12 reads the character string described in the acquired web page, measures the count number described for every character string, and produces the candidate list which arranged the character string in an order from the largest count number To do. The control unit 12 causes the candidate list to be displayed on the television area 71 of the display unit 17 so as to overlap the program image.
- Patent Document 2 discloses a method of collating a face image with a reference image serving as a reference for image search and a newly input image. It is possible to cause the control unit 12 to execute this collation method, and a detailed description thereof is omitted in the present embodiment. Specifically, when an image stored in the storage unit 14 or an image published on a website on the network 25 is used as a reference image, the face recognition is performed on the image recognition unit 16 from the image selected by the user through a touch operation. A part may be extracted, and the extracted face image and reference image may be collated with the control unit 12. Even when the image received from the image recognition unit 16 is an object, the control unit 12 performs collation in the same manner as in the case of a human face image.
- FIG. 8A is a diagram illustrating an example of an image when a candidate list is displayed on the display unit as a search result of the network search executed by the control unit.
- FIG. 8A shows a case where plural types of character strings are described in order in the candidate list.
- the control unit 12 performs a network search, in addition to the image received from the image recognition unit 16, information on the program name received from the television unit 19 is used as key data.
- the name of the performer “Takuya Kimura” is displayed in the first candidate in the candidate list, and the role name “Nichiro Furuhata” in the program is displayed in the second candidate.
- the title of the role in the program is “Criminal Section 1 Chief”.
- the program name is included in the key data, the name or word associated with the program can be displayed.
- FIG. 8B is a diagram for explaining a method for the user to select post information from the candidate list shown in FIG. 8A.
- a black circle indicates a detection area when the user performs a touch operation and selects, and a broken line indicates a movement path of the detection area.
- the touch panel 15 detects the movement path of the detection area and transmits the coordinates where the detection area has stopped to the control unit 12.
- the control unit 12 recognizes a character string corresponding to the position of the coordinate as post information. Then, the control unit 12 displays the recognized posting information on the display unit 17 so as to be different from the other character strings, and then deletes the other character strings so that only the posting information is displayed on the display unit 17. To do.
- This post information is defined as first post information.
- FIG. 8B illustrates a case where the user has selected the second candidate “Nichiro Furuhata” from the candidate list illustrated in FIG. 8A.
- control unit 12 Up to here, the operation of the control unit 12 in the case where the user selects from the information collected from the storage unit 14 or the network 25 as post information has been described. However, the user can be determined based on the evaluation information of the posting target registered in the storage unit 14 in advance. The operation of the control unit 12 when selecting is described.
- the posting information of the evaluation for the posting target is referred to as second posting information.
- FIG. 9 is a diagram for explaining a method in which the user selects the second posting information from a plurality of types of character strings registered in advance.
- the routes 51 to 53 shown in FIG. 9 indicate detection region routes for selecting the second posted information after the user selects the first posted information.
- the provisional starting point of the movement path of the detection area is assumed to be the position of the person image.
- the control unit 12 displays the image of the first posting information selected by the user on the display unit 17 as the detection area moves.
- the first posting information is illustrated in the drawing. Omitted.
- the control unit 12 When the user wants to select a character string registered in the first group in order to submit a good evaluation for the posting target, the user slides the surface of the touch panel 15 along the path 51 to the mark A.
- the control unit 12 When receiving the coordinates of the position of the mark A from the touch panel 15, the control unit 12 reads the character string registered in the first group from the storage unit 14 and causes the display unit 17 to display the character string.
- the control unit 12 when the user wants to select a character string registered in the second group in order to submit a bad evaluation to the posting target, the user touches the surface of the touch panel 15 up to the mark B along the path 53. Slide.
- the control unit 12 receives the coordinates of the position of the mark B from the touch panel 15, the control unit 12 reads the character string registered in the second group from the storage unit 14 and causes the display unit 17 to display the character string.
- FIG. 10 is a diagram illustrating an example of a message that can be input in the case of a route via the mark A.
- the control unit 12 displays a plurality of types of character strings such as “Like”, “Nice!”, And “GOOD!” On the display unit 17. Display. The user can select one character string from the plurality of character strings as the second posting information.
- the control unit 12 changes the character string selected by the user to the second posting information. Recognize as Then, the control unit 12 displays the second post information on the display unit 17 so as to be different from the other character strings, and then deletes the other character strings and displays only the second post information on the display unit 17. Let it be in the state you let it.
- the control unit 12 causes the display unit 17 to display a character input image.
- FIG. 11 is a diagram showing an example when the control unit displays an image for character input on the display unit. Although FIG. 11 shows a case where the character input image 74 is displayed in the television area 71, the place where the character input image 74 is displayed is not limited to the television area 71.
- control unit 12 causes the display unit 17 to display “Furuhata Neiichiro” (see FIG. 8B), which is the first post information selected by the user, in the comment input field 75. Therefore, the user does not need to input the character string of “Nichiro Furuhata”, and may input the subsequent comment.
- FIG. 12 is a diagram illustrating an example of a series of operations from when a user selects a posting target to when posting information is transmitted.
- the control unit 12 displays the first post information candidate list. It is displayed on the display unit 17. Subsequently, when the user selects the character string “Nichiro Furuhata” from the candidate list, the control unit 12 causes the display unit 17 to display the character string “Nichiro Furuhata”. When the user drags the character string “Nichiro Furuhata” to the mark A along the broken line shown in FIG. 12, the control unit 12, as described with reference to FIG. A plurality of types of character strings corresponding to the mark A are displayed on the display unit 17.
- the control unit 12 when the user selects “Nice!” From a plurality of types of character strings in the first group, the control unit 12 combines “first post information and second post information”. Post information of “Ichiro Nice!” Is created and displayed on the display unit 17. Then, when the user drags the image of “Nichiro Furuhata Nice!” Displayed on the display unit 17 to the posting area 73, the control unit 12 posts information based on the coordinate information of the detection area received from the touch panel 15. Is recognized as having been moved to the posting area 73, and a posting transmission signal is transmitted to the communication unit 18.
- the user slides his / her finger from the touch panel 15 to the posting area 73 from the TV area 71 as a starting point, and sequentially selects a character string in the TV area 71 and the mark area 72, By dragging the selected character string to the posting area 73, it becomes possible to post the selected character string in combination. At that time, the user can change the content of the evaluation on the posting target depending on which mark in the mark area 72 the finger passes.
- FIG. 13 is a flowchart showing an operation procedure of the mobile terminal according to the present embodiment.
- 14A to 14G are diagrams showing specific examples of user operations from selection of information about a person in a program to posting. Here, a case where the user posts about a person appearing in a program being broadcast will be described.
- the user touches his / her finger on the position of the person's image for a certain period of time.
- the touch panel 15 detects that the finger as the operation article has been in contact for a certain time or more (step 101), and passes the coordinates of the detection area to the image recognition unit 16.
- the image recognition unit 16 When the image recognition unit 16 receives the coordinates of the detection region from the touch panel 15, the image recognition unit 16 collates the image of the image data stored in the frame memory (not shown) with the coordinates of the detection region, and determines whether or not the selected image is a person. Is determined (step 102). When the image recognition unit 16 determines that the selected image is a person, the image recognition unit 16 extracts the face of the person and passes the face image data to the control unit 12 (step 103).
- step 102 if the selected image is not a person, the image recognition unit 16 determines whether the selected image is an object (step 104). If the selected image is an object, the image recognition unit 16 passes the image data from which the object has been extracted to the control unit 12 (step 105). In step 104, if the selected image is not an object, the image recognition unit 16 notifies the control unit 12 of information that the selected image is neither a person nor an object. In this case, the control unit 12 acquires program information and time information from the television unit 19 (step 106).
- step 107 the control unit 12 checks whether an image that matches the image extracted by the image recognition unit 16 is stored in the storage unit 14 (step 107).
- the control unit 12 registers the information registered as a pair with the image. Is read from the data, and the read information is set as a candidate list and the process proceeds to step 110.
- control unit 12 executes a network search using the person image as key data (step 108)
- the search result is stored in the storage unit 14 (step 109).
- the control unit 12 creates a candidate list from the search result.
- step 106 let program information and time information be a candidate list.
- a process through step 106 for example, a case where the user selects and submits a program name can be considered.
- the control unit 12 displays the created candidate list on the display unit 17 (step 110).
- the touch panel 15 transmits the coordinates of the position where the detection area is stopped to the control unit 12.
- the control unit 12 recognizes the character string corresponding to the position of the coordinate as the first posting information. Then, the control unit 12 makes the display unit 17 display only the posted information. This post information is defined as first post information.
- the control unit 12 determines whether or not the coordinates of the mark position are received from the touch panel 15 (step 112).
- the control unit 12 receives the coordinates in the mark area 72 from the touch panel 15, but if the coordinates do not match any of the coordinates of the marks A and B, the control unit 12 displays a character input image on the display unit 17 (step 113).
- the control unit 12 creates post information in which the character input by the user is combined with the first post information.
- step 112 when the control unit 12 receives the coordinates of the mark position from the touch panel 15, the control unit 12 reads the character string of the group corresponding to the received mark from the storage unit 14, and displays the read character string as a candidate list. 17 is displayed (step 114).
- the control unit 12 displays the first group of character strings on the display unit 17, and when the mark B is selected, the control unit 12 displays the second group of character strings on the display unit 17. .
- step 114 when the user slides his / her finger to one of the plurality of types of character strings displayed in the candidate list while dragging the first posting information, the touch panel 15 stops the detection area.
- the coordinates of the determined position are transmitted to the control unit 12.
- the control unit 12 recognizes the character string corresponding to the position of the coordinate as the second posting information. Then, the control unit 12 creates post information in which the first post information and the second post information are combined and displays the post information on the display unit 17.
- control unit 12 determines whether or not an operation for moving the posting information to the posting area 73 has been performed based on the coordinate information of the detection area received from the touch panel 15 (step 116).
- the control unit 12 recognizes that an operation for moving the posted information to the posting area 73 has been performed, and sends the posted information to the communication unit. 18 to the server 21 (step 117).
- step numbers in the following description correspond to the steps in the flowchart of FIG. 14A to 14G indicate positions where the user's finger is touching the touch panel 15 in order to easily explain the image or character string selected by the user.
- step 101 when the user touches the person displayed on the television area 71 for a certain time or longer (step 101), the portable terminal 11 is touched by the user as shown in FIG. 14B.
- the search result for the selected person is displayed on the display unit 17 as a candidate list (step 110).
- candidate list shown in FIG. 14B character strings “Takuya Kimura”, “Nichiro Furuhata”, “Chief of criminal Affairs 1”,...
- the mobile terminal 11 causes the display unit 17 to display “Nichiro Furuhata” selected by the user in a frame.
- the user can recognize that “Furuhata Toichiro” has been selected.
- the case where the character string selected by the user is surrounded by a frame has been described, but the color of the character string selected by the user may be displayed in a color different from that of other character strings.
- the mobile terminal 11 causes the display unit 17 to delete character strings other than the selected character string “Nichiro Furuhata”.
- the character string “Nichiro Furuhata” moves to the mark A.
- the mobile terminal 11 When the user reaches the position of the mark A, as shown in FIG. 14E, the mobile terminal 11 displays the character strings “Like”, “Nice!”, “GOOD!”,. It is displayed on the display unit 17 (step 114). Thereafter, the user slides the finger to the position “Nice!” While touching the touch panel 15. Accordingly, as illustrated in FIG. 14F, the mobile terminal 11 creates post information “Natsuichiro Furuhata Nice!” Combining “Nichiro Furuhata” and “Nice!”.
- the mobile terminal 11 transmits the posting information including “Nice Ichiro Furuhata!” To the server 21 (step 117). . Thereafter, when the mobile terminal 11 receives a post message “Nichiro Furuhata Nice!” From the server 21, the mobile terminal 11 displays the post message in the post area 73 of the display unit 17 as shown in FIG. 14G.
- the program to be broadcast is a sports program
- the user presses the image of the target sports player with a finger, and then moves on the character string of “Like” displayed corresponding to the mark. If you pass it and drag the character string to the posting area at the end, you can quickly make a post such as “Good XX player”.
- the user can input post information with the character string selected by the user by dragging the character string with the finger in the route of “person” ⁇ “mark” ⁇ “posting area”. , Quick character input can be realized.
- the user can easily and quickly obtain the character string associated with the program by simply touching the video of the program and dragging the selected character string. You can post without missing.
- the key data is an image of a person appearing in the program.
- the name of the product By searching for images including program information and sponsor information in key data, such as stadium names and place names if the program is a sports program, the character string associated with the program can be obtained more accurately. Can do.
- the character string obtained by the search is displayed in a selectable manner. If the character string is the name of a celebrity, the person's official home page is displayed. If the character string of the URL is a product name, the URL of the product manufacturer's site may be added as link information for posting. When the character string is a place name, map information indicating the position of the place name on the map may be added to the posted information.
- FIG. 15A and FIG. 15B are diagrams for explaining a case where link information of a person's official homepage in a program can be attached to posted information.
- control unit 12 refers to the search result of the network search, and information on the URL of the official homepage of “Nichiro Furuhata” Is included, an image in which URL attachment can be selected is displayed on the display unit 17 as shown in FIG. 15A.
- the image recognition unit 16 extracts a person's face or object from the program image.
- the image recognition unit 16 performs the same as the method for extracting an object on the program.
- a telop character string may be extracted.
- a specific example of the character string extraction method will be described.
- For each character character information and its image are registered in advance in the storage unit 14 as a set.
- the image recognition unit 16 detects the edge of the telop on the program, extracts the telop part from the program image, and sequentially matches the image of the telop character image from the first character to the end character of the telop. Search in the storage unit 14.
- the image recognition unit 16 reads information on the registered character paired with the image, and reads the read character from the first character of the telop to the end character. It arranges in order corresponding to. In this way, the image recognition unit 16 recognizes the character string of the telop on the program.
- control unit 12 refers to the program information acquired from the television unit 19 for the expression “this gag samui” registered in advance in the storage unit 14 as the character string of the mark B, and broadcasts the program. If is a broadcasting station from Tohoku to Hokkaido, it is converted to the expression “This is gagging”.
- a program for causing a computer to execute the information processing method described in this embodiment may be stored in a computer-readable recording medium. In this case, by installing the program from the recording medium into another information processing apparatus, it is possible to cause the other information processing apparatus to execute the above information processing method.
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、情報処理装置、情報処理方法、および情報処理装置に実行させるプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program to be executed by the information processing apparatus.
テレビ番組の視聴者が番組中で放送されたアンケートにインターネットを介して回答すると、回答結果を番組の放送中に公開することが行われるようになった(特許文献1参照)。視聴者は、放送中の番組に関してリアルタイムで他の視聴者と共感を得ることができる。 When viewers of TV programs respond to questionnaires broadcast during the program via the Internet, the results of the response are made public during the program broadcast (see Patent Document 1). The viewer can get empathy with other viewers in real time regarding the program being broadcast.
近年、スマートホンおよび携帯電話機を含む携帯端末でも、放送中のテレビ番組を高画質で見ることができるようになった。さらに、ユーザが携帯端末でテレビ番組を見ながらインターネット環境を利用してメッセージを投稿可能にしたアプリケーションソフトウェアプログラムが登場してきた。 In recent years, it has become possible to view broadcast TV programs with high image quality even on mobile terminals including smart phones and mobile phones. In addition, application software programs that allow users to post messages using the Internet environment while watching TV programs on mobile terminals have appeared.
ユーザは、番組に出演している人物について投稿しようとしても、その人物の名前をすぐに思い出せないことがある。その対策として、特許文献2には、画像から被写体となる人物の顔を検出し、その人物の名前を表示可能にした技術が開示されている。特許文献2に開示された技術を用いれば、ユーザは、顔を見てもすぐに名前を思い出せない人物に関して、投稿するコメントを早く書き始めることが可能となる。
When a user tries to post about a person who appears in a program, the user may not immediately remember the name of the person. As a countermeasure,
放送中の番組の進行に合わせて、ユーザが携帯端末を操作してタイミングよく投稿するには、文字入力の操作に相当なスピードが要求される。携帯端末は文字入力のための操作エリアが小さく、コメントだけでなく、人名や番組タイトルなども入力しようとすると、時間が掛かってしまう。そのため、ユーザが投稿するコメントを書き終えたときには、その場面が終わっていることもあり、タイミングよくコメントを投稿するのが難しいという問題があった。 In order for the user to operate the mobile terminal and post it in a timely manner in accordance with the progress of the program being broadcast, a considerable speed is required for the character input operation. The portable terminal has a small operation area for inputting characters, and it takes time to input not only comments but also names of people and program titles. Therefore, when the user finishes writing a comment, the scene may be over, and it is difficult to post a comment in a timely manner.
本発明の目的の一つは、配信中または放送中の番組に対して、簡単に、かつ素早く投稿可能にした情報処理装置、情報処理方法、およびコンピュータに実行させるプログラムを提供することである。 One of the objects of the present invention is to provide an information processing apparatus, an information processing method, and a program to be executed by a computer that can easily and quickly post a program being distributed or broadcast.
本発明の一側面の情報処理装置は、配信中または放送中の番組および番組の投稿欄を表示する表示部と、表示部が表示する画像に対する操作を検出し、操作を検出した領域である検出領域の位置を示す情報を出力する操作部と、表示部が表示する番組の画像から、検出領域の位置に対応する画像を抽出する画像認識部と、投稿欄に表示される情報を配信するサーバとネットワークを介して通信する通信部と、画像認識部から画像認識部が抽出した画像を受け取ると、その画像に関連する投稿情報を表示部に表示させ、操作部から受信する検出領域の移動経路の情報に基づいて、投稿情報の画像を投稿欄まで移動させる操作が行われたことを認識すると、投稿情報を通信部を介してサーバに送信する制御部と、を有する構成である。 An information processing apparatus according to an aspect of the present invention detects a program that is being distributed or broadcasted, a display unit that displays a program posting column, an operation on an image displayed by the display unit, and a region in which the operation is detected An operation unit that outputs information indicating the position of the region, an image recognition unit that extracts an image corresponding to the position of the detection region from a program image displayed on the display unit, and a server that distributes information displayed in the posting column When the image extracted by the image recognition unit from the image recognition unit and the communication unit that communicates with each other via the network are received, the posting information related to the image is displayed on the display unit, and the moving path of the detection area received from the operation unit And a control unit that transmits the posted information to the server via the communication unit when recognizing that an operation for moving the image of the posted information to the posting column has been performed based on the information.
本発明の一側面の情報処理方法は、表示部および操作部を有する情報処理装置が実行する情報処理方法であって、配信中または放送中の番組および番組の投稿欄を表示部に表示させ、表示部が表示する画像に対する操作を検出した領域である検出領域の位置を示す情報を操作部が出力すると、表示部が表示する番組の画像から、検出領域の位置に対応する画像を抽出し、検出領域の移動経路の情報に基づいて、投稿情報の画像を投稿欄まで移動させる操作が行われたことを認識すると、その投稿情報を、投稿欄に表示される情報を配信するサーバに送信するものである。 An information processing method according to one aspect of the present invention is an information processing method executed by an information processing apparatus having a display unit and an operation unit, and displays a program being distributed or broadcast and a posting column of the program on the display unit, When the operation unit outputs information indicating the position of the detection region, which is a region where an operation on the image displayed on the display unit is detected, an image corresponding to the position of the detection region is extracted from the program image displayed on the display unit, When recognizing that an operation to move the image of the posted information to the posting column is performed based on the information on the movement path of the detection area, the posted information is transmitted to the server that distributes the information displayed in the posting column. Is.
本発明の一側面のプログラムは、表示部および操作部を有する情報処理装置に、配信中または放送中の番組および番組の投稿欄を表示部に表示させる手順と、表示部が表示する画像に対する操作を検出した領域である検出領域の位置を示す情報を操作部が出力すると、表示部が表示する番組の画像から、検出領域の位置に対応する画像を抽出する手順と、検出領域の移動経路の情報に基づいて、投稿情報の画像を投稿欄まで移動させる操作が行われたことを認識すると、その投稿情報を、投稿欄に表示される情報を配信するサーバに送信する手順を実行させるものである。 A program according to one aspect of the present invention includes a procedure for causing an information processing apparatus having a display unit and an operation unit to display a program being distributed or broadcast and a posting column of the program on the display unit, and an operation for an image displayed on the display unit When the operation unit outputs information indicating the position of the detection region that is the region where the detection is detected, a procedure for extracting an image corresponding to the position of the detection region from the program image displayed on the display unit, and a movement path of the detection region Based on the information, when recognizing that an operation to move the image of the posted information to the posting column has been performed, the procedure for transmitting the posted information to the server that distributes the information displayed in the posting column is executed. is there.
本発明の一実施形態の情報処理装置の構成を説明する。図1は本発明の一実施形態の情報処理装置の一構成例を示すブロック図である。 The configuration of an information processing apparatus according to an embodiment of the present invention will be described. FIG. 1 is a block diagram showing a configuration example of an information processing apparatus according to an embodiment of the present invention.
図1に示すように、情報処理装置1は、表示部7と、操作部5と、画像認識部6と、通信部8と、制御部2とを有する。
As shown in FIG. 1, the information processing apparatus 1 includes a
表示部7は、配信中の番組または放送中の番組と、その番組の投稿欄を表示する。操作部5は、表示部7が表示する画像に対する操作を検出し、操作を検出した領域である検出領域の位置を示す情報を出力する。画像認識部6は、表示部7が表示する番組の画像から、検出領域に対応する画像を抽出する。通信部8は、投稿欄に表示される情報を配信するサーバとネットワークを介して通信する。
The
制御部2は、画像認識部6から画像認識部6が抽出した画像を受け取ると、その画像に関連する投稿情報を表示部7に表示させる。そして、制御部2は、操作部5から受信する検出領域の移動経路の情報に基づいて、投稿情報の画像を投稿欄まで移動させる操作が行われたことを認識すると、投稿情報を通信部8を介してサーバに送信する。
When the
上記の情報処理装置では、ユーザが表示部7に表示される番組の画像を選択するために、ユーザの指が操作部5に触れると、その画像に関する投稿情報を表示する。そして、ユーザが操作部5を用いて、その投稿情報の画像を投稿欄まで移動させる操作を行うと、情報処理装置はその投稿情報をサーバに送信する。そのため、ユーザは、表示部7に表示される情報の画像を投稿欄に移動させる操作を行うだけで、放送中の番組に関連する情報を投稿できるので、文字を入力する必要がなく、投稿を簡単に、かつ素早く行うことができる。
In the information processing apparatus described above, when the user's finger touches the
なお、本発明の情報処理装置は、スマートホンを含む携帯電話機および簡易型携帯電話(Personal Handy-phone System)、PDA(Personal Digital Assistant)、電子ブック、ならびに携帯型ゲーム機などであってもよい。 The information processing apparatus of the present invention may be a mobile phone including a smart phone, a simple mobile phone (Personal Handy-phone System), a PDA (Personal Digital Assistant), an electronic book, a portable game machine, or the like. .
以下に、本発明の情報処理装置の一実施形態となる携帯端末について詳しく説明する。 Hereinafter, a portable terminal as an embodiment of the information processing apparatus of the present invention will be described in detail.
図2は本実施形態の携帯端末を用いて放送中の番組に投稿するための情報処理システムを説明するためのブロック図である。 FIG. 2 is a block diagram for explaining an information processing system for posting to a broadcast program using the mobile terminal of the present embodiment.
図2に示すように、本実施形態の携帯端末11は、無線通信で基地局23と接続される。基地局23はネットワーク25を介してサーバ21と接続される。また、携帯端末11は、番組を再生するための電波を、放送局33の放送装置(不図示)からケーブルおよび電波塔31を介して受信する。電波塔31から送出される電波は地上波デジタル放送波であるものとし、ネットワーク25はインターネットであるものとする。
As shown in FIG. 2, the
サーバ21は、放送局33が放送する番組に対する投稿を受け付け、投稿メッセージを携帯端末11に配信する。本実施形態では、ネットワーク25に接続される携帯端末11が1台の場合で説明するが、携帯端末の数は1台に限らず、複数であってもよい。なお、本実施形態では、携帯端末11がサーバ21に送信する、投稿に関する情報を投稿情報と称し、携帯端末11の表示部の投稿欄に表示させるためにサーバ21が配信する情報を投稿メッセージと称する。
The
本実施形態では、図2に示すように、サーバ21が番組の投稿メッセージをネットワーク25を介して携帯端末11に配信する場合で説明するが、放送局33の放送装置(不図示)がネットワーク25を介してサーバ21と接続され、サーバ21から受信する投稿メッセージを番組と一緒に放送してもよい。
In the present embodiment, as shown in FIG. 2, the
また、本実施形態では、携帯端末11は、電波を受信して番組を再生する場合で説明したが、ネットワーク25を介してストリーミング配信される番組を再生するようにしてもよい。また、携帯端末11が無線通信で基地局23を介してネットワーク25と接続される場合で説明するが、有線で接続されてもよい。さらに、ネットワーク25には、ウェブサイトを公開する複数のサーバが接続されているが、図2では、それら複数のサーバを図に示すことを省略している。
Further, in this embodiment, the
次に、図2に示した、本実施形態の携帯端末11の構成を説明する。図3は本実施形態の携帯端末の一構成例を示すブロック図である。
Next, the configuration of the
図3に示すように、携帯端末11は、記憶部14と、タッチパネル15と、画像認識部16と、表示部17と、通信部18と、テレビ部19と、制御部12とを有する。制御部12は、記憶部14、タッチパネル15、画像認識部16、表示部17、通信部18およびテレビ部19のそれぞれとバス13を介して接続されている。
図3に示す各部の構成について説明する。
As illustrated in FIG. 3, the
The configuration of each unit shown in FIG. 3 will be described.
テレビ部19は、電波塔31から送出される電波を受信するテレビチューナを有し、受信する電波に基づいて再生した番組を制御部12に送信する。また、テレビ部19は、デジタル放送波に含まれる「データ放送の情報」を制御部12に送信する。データ放送の情報には、天気予報やニュースの情報などが含まれているが、ここでは、テレビ部19が制御部12に通知する、データ放送の情報が、放送中の番組に関する番組名および出演者名等の番組情報と、番組の開始時刻、終了時刻および現在時刻等の時間情報であるものとする。
The
記憶部14には、少なくとも文字または記号を含む、複数種の投稿情報が予め格納されている。本実施形態では、投稿対象の評価に関する投稿情報として、「いいね、ナイス!、GOOD!、・・・」等の良い評価内容の第1のグループと、怒りや呆れ等の悪い評価内容の第2のグループが予め記憶部14に格納されている。また、第1のグループを選択するためのマークAの画像と、第2のグループを選択するためのマークBの画像が記憶部14に格納されている。投稿情報は、文字や記号を組み合わせた絵文字であってもよい。
The
さらに、記憶部14には、制御部12がネットワーク25上のウェブサイトで検索した結果の情報が格納される。ここで、ユーザが過去に検索した情報が記憶部14に登録されている場合の具体例を説明する。
Further, the
例えば、ユーザが携帯端末11に芸能人の名前を入力して検索を実行させていた場合、名前の情報と顔の画像とが組になったデータが記憶部14に登録されることになる。データには、芸能人の名前に限らず、過去に出演したドラマの役名やオフィシャルホームページのURL(Uniform Resource Locator)の情報などが含まれていてもよい。また、人物に限らず、建築物や商品などの物体について、その名前の情報と外観の画像とが組になったデータが記憶部14に登録されてもよい。
For example, when the user inputs the name of the entertainer to the
通信部18は、無線で基地局23と通信することで、基地局23を介してネットワーク25と接続される。通信部18は、サーバ21が配信する投稿メッセージを基地局23およびネットワーク25を介して受信すると、投稿メッセージを制御部12に渡す。また、通信部18は、投稿情報および投稿情報をサーバ25に送信する旨の指示を含む投稿送信信号を制御部12から受け取ると、投稿情報を基地局23およびネットワーク25を介してサーバ21に送信する。また、通信部18は、制御部12からの指示にしたがって、ネットワーク25上で公開されているウェブサイトからウェブページを取得する。
The
次に、タッチパネル15と表示部17について説明する。図4は図3に示した携帯端末の一例を示す外観斜視図である。図5は図4に示した携帯端末の一部を分解した状態を示す分解斜視図である。
Next, the
タッチパネル15は図1に示した操作部5に相当する。表示部17は、例えば、LCD(Liquid Crystal Display)である。図5に示すように、表示部17の上にタッチパネル15が重ね合わせられ、これらが一体になった構成が、図4に示すように、携帯端末11の本体10の上に実装されている。タッチパネル15はセンサが表面に設けられた透明基板で構成されている。そのため、ユーザは、タッチパネル15よりも下層側に設けられた表示部17に表示される画像を、タッチパネル15を通して見ることができる。
The
図6は表示部に表示される画像の一例を示す図である。図6に示すように、表示部17は、図の左側から、放送中の番組が表示されるテレビエリア71と、マークAおよびマークBが表示されるマークエリア72と、投稿メッセージが表示される投稿エリア73との3つのエリアに分かれている。
FIG. 6 is a diagram showing an example of an image displayed on the display unit. As shown in FIG. 6, from the left side of the figure, the
タッチパネル15の基板面と表示部17の画面には共通の座標が予め設定されている。タッチパネル15は、ユーザの指またはペン等の操作物の接触をセンサが検出すると、検出した領域である検出領域の座標の情報を制御部12に送信する。以下では、操作物が指の場合で説明する。また、タッチパネル15および表示部17に共通に設定されている座標については、後で詳しく説明する。
Common coordinates are set in advance on the substrate surface of the
ここで、表示部17に表示される画像に対して、ユーザがタッチパネル15を用いて行う操作の例として、「タッチ」と「ドラッグ」の2つの操作を説明する。
Here, two operations of “touch” and “drag” will be described as examples of operations performed on the image displayed on the
タッチ操作は、ユーザが表示部17に表示された画像を選択するための操作である。タッチパネル15は、ユーザが選択したい画像に対応する基板面の領域を指で触れるタッチ操作を検出すると、その画像に対応する検出領域の座標を制御部12に送信する。ただし、タッチパネル15は、テレビエリア71に表示された番組の画像に対するタッチ操作を検出したときは、検出領域の座標を画像認識部16に送信する。
Touch operation is an operation for the user to select an image displayed on the
ドラッグ操作は、ユーザがタッチ操作で選択した画像を、表示部17に表示される画像内で移動させるための操作である。タッチパネル15は、ユーザが選択した画像を移動させたい位置まで基板面に触れた指をスライドさせるドラッグ操作を検出すると、検出領域の移動経路の座標を制御部12に送信する。
The drag operation is an operation for moving the image selected by the touch operation in the image displayed on the
画像認識部16は、表示部17のテレビエリア71に順次、表示される画像を記憶するフレームメモリ(不図示)を有する。画像認識部16は、タッチパネル15から検出領域の座標の情報を受信し、検出領域に対応する座標が一定時間以上変化しなければ、そのときにフレームメモリが記憶している画像を静止画像にしてフレームメモリに記憶させる。一定時間とは、例えば、0.5秒である。
The
そして、画像認識部16は、その検出領域に対応する画像から人物の顔または物体を抽出し、抽出した画像のデータを制御部12に渡す。人物の画像から顔の部分を抽出する技術については、特許文献2に開示されており、本実施形態では、その詳細な説明を省略する。画像から物体を抽出する場合、画像認識部16は、物体のエッジ検出を行って、その外形を認識し、外形に沿って切り出した画像のデータを制御部12に送信する。
Then, the
また、画像認識部16は、検出領域に対応する画像が人物および物体のいずれでもない場合、人物および物体のいずれでもない旨の情報を制御部12に通知する。
In addition, when the image corresponding to the detection area is neither a person nor an object, the
図7は、タッチパネル15、表示部17および画像認識部16のフレームメモリ(不図示)に共通する2次元座標が設定されていることを説明するための図である。図7に示す例では、図の左右方向にx軸が定義され、図の上下方向にy軸が定義されている。
FIG. 7 is a diagram for explaining that the two-dimensional coordinates common to the frame memory (not shown) of the
ユーザが表示部17の画面(図7の真ん中の図)を見ながら、星印の画像を選択するために、星印の画像に対してタッチ操作を行うと、タッチパネル15は、検出領域の座標として(x1,y1)を検出する。星印の画像がテレビエリア71に表示される番組の画像である場合、タッチパネル15は、座標(x1,y1)の情報を画像認識部16に送信する。画像認識部16は、座標(x1,y1)の情報をタッチパネル15から受け取ると、その座標に位置する物体の外形または人物の顔を抽出する。
When the user performs a touch operation on the star image in order to select the star image while viewing the screen of the display unit 17 (the middle diagram in FIG. 7), the
次に、制御部12の構成を説明するが、制御部12の動作をわかりやすく説明するために、ユーザがタッチパネル15を用いて行う操作および表示部17の画面と併せて説明する。
Next, the configuration of the
制御部12は、プログラムにしたがって処理を実行するCPU(Central Processing Unit)(不図示)と、プログラムを記憶するメモリ(不図示)とを有する。
The
制御部12は、表示部17に対して、テレビ部19から受信する番組をテレビエリア71に表示させ、マークAおよびマークBをマークエリア72に表示させ、通信部18から受信する投稿メッセージを投稿エリア73に表示させる制御を行う。その際、制御部12は、テレビ部19から受信する番組の画像のデータを画像認識部16にも送信する。このとき、表示部17が表示する画面の一例は図6に示した通りである。
The
制御部12は、画像認識部16から画像のデータを受信すると、その画像を検索のためのデータであるキーデータとして、キーデータを含むデータが登録されているか否かを、記憶部14を調べる。そして、記憶部14内にキーデータを含むデータがあると、画像と一緒に登録されている名前を読み出して表示部17のテレビエリア71に、番組の画像の上に重ねて表示させる。
Upon receiving image data from the
また、制御部12は、キーデータを含むデータが記憶部14に登録されていない場合、キーデータを含むウェブページを、通信部18を介してネットワーク25上のウェブサイトで検索し、ウェブサイトから取得するネットワーク検索を行う。そして、制御部12は、取得したウェブページに記述された文字列を読み出し、文字列毎に記述されているカウント数を計測し、文字列をカウント数が大きいものから順に並べた候補リストを作成する。制御部12は、候補リストを表示部17のテレビエリア71に、番組の画像の上に重ねて表示させる。
When the data including the key data is not registered in the
なお、特許文献2には、画像検索の基準となる参照画像と新たに入力される画像とで顔画像を照合する方法が開示されている。この照合方法を制御部12に実行させることが可能であり、本実施形態では、その詳細な説明を省略する。具体的には、記憶部14に格納された画像またはネットワーク25上のウェブサイトで公開されている画像を参照画像とすると、ユーザがタッチ操作を行って選択した画像から画像認識部16に顔の部分を抽出させ、抽出した顔の画像と参照画像とを制御部12に照合させればよい。画像認識部16から受け取る画像が物体の場合でも、制御部12は、人物の顔の画像の場合と同様にして、照合を行う。
Note that
図8Aは制御部が実行したネットワーク検索の検索結果として候補リストを表示部に表示させた場合の画像の一例を示す図である。 FIG. 8A is a diagram illustrating an example of an image when a candidate list is displayed on the display unit as a search result of the network search executed by the control unit.
図8Aでは、候補リストに複数種の文字列が順に並んで記述されている場合を示す。図8Aに示す例では、制御部12がネットワーク検索を行う際、画像認識部16から受け取る画像の他に、テレビ部19から受け取る番組名の情報もキーデータに用いた場合である。図8Aに示すように、候補リストの第一候補には出演者の名前「木村拓也」が表示され、第二候補にはその番組での役名「古畑任一郎」が表示され、第三候補には番組での役の肩書き「刑事一課主任」が表示されている。このように、キーデータに番組名を含めれば、番組と紐付いた名前や単語を表示させることができる。
FIG. 8A shows a case where plural types of character strings are described in order in the candidate list. In the example shown in FIG. 8A, when the
図8Bはユーザが図8Aに示した候補リストから投稿情報を選択する方法を説明するための図である。黒丸印はユーザがタッチ操作を行って選択したときの検出領域を示し、破線は検出領域の移動経路を示す。 FIG. 8B is a diagram for explaining a method for the user to select post information from the candidate list shown in FIG. 8A. A black circle indicates a detection area when the user performs a touch operation and selects, and a broken line indicates a movement path of the detection area.
ユーザが候補リストに表示された複数種の文字列から1つの文字列を選択するために、指を、人物の画像から、選択したい文字列の位置までタッチパネル15の表面に触れたままスライドさせると、タッチパネル15は、検出領域の移動経路を検出し、検出領域が停止したところの座標を制御部12に送信する。制御部12は、タッチパネル15から座標の情報を受信すると、その座標の位置に対応する文字列を投稿情報として認識する。そして、制御部12は、認識した投稿情報を他の文字列と異なるように表示部17に表示させた後、他の文字列を消去させ、投稿情報のみを表示部17に表示させた状態にする。この投稿情報を第1の投稿情報とする。図8Bに示す例では、ユーザが図8Aに示した候補リストから第二候補の「古畑任一郎」を選択した場合を示す。
When the user slides a finger while touching the surface of the
ここまで、投稿情報として、記憶部14またはネットワーク25から収集した情報からユーザが選択する場合における制御部12の動作を説明したが、予め記憶部14に登録された投稿対象の評価の情報からユーザが選択する場合における制御部12の動作を説明する。投稿対象に対する評価の投稿情報を、第2の投稿情報と称する。
Up to here, the operation of the
図9は予め登録されている複数種の文字列からユーザが第2の投稿情報を選択する方法を説明するための図である。 FIG. 9 is a diagram for explaining a method in which the user selects the second posting information from a plurality of types of character strings registered in advance.
図9に示す経路51~53は、ユーザが第1の投稿情報を選択した後、第2の投稿情報を選択するための検出領域の経路を示す。
The
ここでは、第2の投稿情報の選択方法をわかりやすく説明するために、検出領域の移動経路の仮の起点を人物の画像の位置とする。また、制御部12は、ユーザが選択した第1の投稿情報の画像を、検出領域の移動に伴って表示部17に表示させるが、図9では、第1の投稿情報を図に示すことを省略している。
Here, in order to explain the selection method of the second posted information in an easy-to-understand manner, the provisional starting point of the movement path of the detection area is assumed to be the position of the person image. Further, the
ユーザは、投稿対象に対して良い評価の投稿をするために、第1のグループに登録された文字列を選択したい場合、経路51に沿って指をマークAまでタッチパネル15の表面をスライドさせる。制御部12は、タッチパネル15からマークAの位置の座標を受信すると、第1のグループに登録されている文字列を記憶部14から読み出して表示部17に表示させる。
When the user wants to select a character string registered in the first group in order to submit a good evaluation for the posting target, the user slides the surface of the
その反対に、ユーザは、投稿対象に対して悪い評価の投稿をするために、第2のグループに登録された文字列を選択したい場合、経路53に沿って指をマークBまでタッチパネル15の表面をスライドさせる。制御部12は、タッチパネル15からマークBの位置の座標を受信すると、第2のグループに登録されている文字列を記憶部14から読み出して表示部17に表示させる。
On the other hand, when the user wants to select a character string registered in the second group in order to submit a bad evaluation to the posting target, the user touches the surface of the
図10は、マークAを経由する経路の場合に入力可能なメッセージの例を示す図である。図10に示すように、ユーザがマークAを選択する操作を行うと、制御部12は、「いいね」、「ナイス!」および「GOOD!」等の複数種の文字列を表示部17に表示させる。ユーザは、これら複数の文字列から1つの文字列を第2の投稿情報として選択することが可能となる。
FIG. 10 is a diagram illustrating an example of a message that can be input in the case of a route via the mark A. As illustrated in FIG. 10, when the user performs an operation of selecting the mark A, the
図8Bを参照して説明したように、ユーザが図10に表示された複数種の文字列から1つの文字列を選択すると、制御部12は、ユーザが選択した文字列を第2の投稿情報として認識する。そして、制御部12は、第2の投稿情報を他の文字列と異なるように表示部17に表示させた後、他の文字列を消去させ、第2の投稿情報のみを表示部17に表示させた状態にする。
As described with reference to FIG. 8B, when the user selects one character string from the plurality of types of character strings displayed in FIG. 10, the
一方、ユーザは、投稿対象に対して、自由にコメントを投稿したい場合もある。その場合、ユーザは、図9に示した経路52に沿って指を、マークエリア72のマークAとマークBの間の領域までタッチパネル15の表面をスライドさせる。制御部12は、タッチパネル15から受信する検出領域の座標がマークエリア72であって、マークAおよびマークBのいずれでもないことを認識すると、文字入力用の画像を表示部17に表示させる。
On the other hand, the user may want to freely post a comment on the posting target. In that case, the user slides the surface of the
図11は制御部が文字入力用の画像を表示部に表示させた場合の一例を示す図である。図11では、文字入力用画像74をテレビエリア71に表示させる場合を示すが、文字入力用画像74を表示させる場所は、テレビエリア71に限らない。
FIG. 11 is a diagram showing an example when the control unit displays an image for character input on the display unit. Although FIG. 11 shows a case where the
図11に示す例では、制御部12は、ユーザが選択した第1の投稿情報となる「古畑任一郎」(図8B参照)をコメント入力欄75に表示部17に表示させている。そのため、ユーザは「古畑任一郎」の文字列を入力する必要がなく、その後に続くコメントを入力すればよい。
In the example shown in FIG. 11, the
続いて、ユーザが第1の投稿情報を選択した後、第2の投稿情報を選択し、第1および第2の投稿情報を組み合わせて投稿するまでの一例の操作における制御部12の動作を説明する。図12はユーザが投稿対象の選択から投稿情報を送信するまでの一連の操作の一例を示す図である。
Subsequently, after the user selects the first posting information, the second posting information is selected, and the operation of the
図8Aおよび図8Bを参照して説明したように、ユーザがテレビエリア71の番組の画像から人物を選択すると、図12に示すように、制御部12は、第1の投稿情報の候補リストを表示部17に表示させる。続いて、ユーザが候補リストから「古畑任一郎」の文字列を選択すると、制御部12は、文字列「古畑任一郎」を表示部17に表示させた状態にする。ユーザが図12に示す破線に沿って文字列「古畑任一郎」をマークAまでドラッグ操作すると、制御部12は、図10を参照して説明したように、第2の投稿情報の候補として、マークAに対応する第1のグループの複数種の文字列を表示部17に表示させる。
As described with reference to FIGS. 8A and 8B, when the user selects a person from the program image in the
図12に示すように、ユーザが第1のグループの複数種の文字列から「ナイス!」を選択すると、制御部12は、第1の投稿情報と第2の投稿情報を組み合わせた「古畑任一郎 ナイス!」の投稿情報を作成して表示部17に表示させる。そして、ユーザが表示部17に表示された「古畑任一郎 ナイス!」の画像を投稿エリア73までドラッグすると、制御部12は、タッチパネル15から受信する検出領域の座標の情報に基づいて、投稿情報を投稿エリア73まで移動する操作が行われたことを認識し、投稿送信信号を通信部18に送信する。
As shown in FIG. 12, when the user selects “Nice!” From a plurality of types of character strings in the first group, the
このようにして、ユーザはテレビエリア71を起点にして投稿エリア73まで一筆書きのように指をタッチパネル15から離さずにスライドさせ、テレビエリア71とマークエリア72で順次、文字列を選択し、選択した文字列を投稿エリア73までドラッグすることで、選択した文字列を組み合わせた投稿をすることが可能となる。その際、ユーザは指をマークエリア72のどのマークを通過させるかによって、投稿対象に対する評価の内容を変えることができる。
In this way, the user slides his / her finger from the
次に、上述した構成の携帯端末11の動作を説明する。
Next, the operation of the
図13は、本実施形態の携帯端末の動作手順を示すフローチャートである。図14A~図14Gは、番組中の人物に関する情報の選択から投稿するまでのユーザの操作の具体例を示す図である。ここでは、ユーザが放送中の番組に出演している人物について投稿する場合で説明する。 FIG. 13 is a flowchart showing an operation procedure of the mobile terminal according to the present embodiment. 14A to 14G are diagrams showing specific examples of user operations from selection of information about a person in a program to posting. Here, a case where the user posts about a person appearing in a program being broadcast will be described.
はじめに、ユーザはテレビエリアに映っている人物を選択するために、自分の指をその人物の画像の位置に一定時間以上タッチさせる。これにより、タッチパネル15は、操作物となる指が一定時間以上接触していることを検出し(ステップ101)、検出領域の座標を画像認識部16に渡す。
First, in order to select a person shown in the television area, the user touches his / her finger on the position of the person's image for a certain period of time. Thereby, the
画像認識部16は、タッチパネル15から検出領域の座標を受け取ると、フレームメモリ(不図示)に保存されている画像データの画像と検出領域の座標を照合し、選択された画像が人物か否かを判定する(ステップ102)。画像認識部16は、選択された画像が人物と判定すると、人物の顔を抽出して顔の画像データを制御部12に渡す(ステップ103)。
When the
ステップ102で、選択された画像が人物でない場合、画像認識部16は、選択された画像が物体か否かを判定する(ステップ104)。選択された画像が物体である場合、画像認識部16は、物体を抽出した画像のデータを制御部12に渡す(ステップ105)。なお、ステップ104で、選択された画像が物体でない場合、画像認識部16は、選択された画像が人物および物体のいずれでもない旨の情報を制御部12に通知する。この場合、制御部12は、番組情報と時間情報をテレビ部19から取得する(ステップ106)。
In
ステップ103または105の後、制御部12は、画像認識部16が抽出した画像と一致する画像が記憶部14に保存されているか否かを調べる(ステップ107)。以下では、ステップ101で選択された画像が人物の場合で説明する。ステップ107で、画像認識部16で抽出された画像の人物と同じ人物の画像のデータが記憶部14に登録されている場合、制御部12は、その画像と組になって登録されている情報をデータから読み出し、読み出した情報を候補リストとしてステップ110に進む。
After
一方、ステップ107で、画像認識部16が抽出した画像と一致する画像が記憶部14に保存されていない場合、制御部12は、その人物の画像をキーデータとして、ネットワーク検索を実行し(ステップ108)、検索結果を記憶部14に保存する(ステップ109)。制御部12は、検索結果から候補リストを作成する。
On the other hand, if an image that matches the image extracted by the
なお、制御部12がステップ106の処理を実行した場合、番組情報および時間情報を候補リストとする。ステップ106を経由する処理として、例えば、ユーザが番組名を選択して投稿する場合が考えられる。
In addition, when the
ステップ106、107、109のうち、いずれかの処理の後、制御部12は、作成した候補リストを表示部17に表示させる(ステップ110)。ユーザが候補リストに表示された複数種の文字列のうちの1つの文字列まで指をスライドさせると、タッチパネル15は、検出領域が停止した位置の座標を制御部12に送信する。制御部12は、タッチパネル15から座標の情報を受信すると、その座標の位置に対応する文字列を第1の投稿情報として認識する。そして、制御部12は、投稿情報のみを表示部17に表示させた状態にする。この投稿情報を第1の投稿情報とする。
After any one of the
続いて、制御部12は、タッチパネル15からマークの位置の座標を受け取るか否かを判定する(ステップ112)。制御部12は、タッチパネル15からマークエリア72内の座標を受け取るが、その座標がマークAおよびBのいずれの座標とも一致しない場合、文字入力用画像を表示部17に表示させる(ステップ113)。ユーザが文字入力用画像に対応してタッチパネル15を指で触れて文字を入力すると、制御部12は、ユーザが入力した文字を第1の投稿情報に組み合わせた投稿情報を作成する。
Subsequently, the
ステップ112の判定で、制御部12は、タッチパネル15からマークの位置の座標を受け取ると、受け取ったマークに対応するグループの文字列を記憶部14から読み出し、読み出した文字列を候補リストとして表示部17に表示させる(ステップ114)。制御部12は、マークAが選択された場合、第1のグループの文字列を表示部17に表示させ、マークBが選択された場合、第2のグループの文字列を表示部17に表示させる。
In
ステップ114の後、ユーザが第1の投稿情報をドラッグ操作しながら候補リストに表示された複数種の文字列のうちの1つの文字列まで指をスライドさせると、タッチパネル15は、検出領域が停止した位置の座標を制御部12に送信する。制御部12は、タッチパネル15から座標の情報を受信すると、その座標の位置に対応する文字列を第2の投稿情報として認識する。そして、制御部12は、第1の投稿情報と第2の投稿情報を組み合わせた投稿情報を作成して表示部17に表示させた状態にする。
After
その後、制御部12は、タッチパネル15から受信する検出領域の座標の情報に基づいて、投稿情報を投稿エリア73まで移動する操作が行われたか否かを判定する(ステップ116)。ユーザが表示部17に表示された投稿情報の画像を投稿エリア73までドラッグすると、制御部12は、投稿情報を投稿エリア73まで移動する操作が行われたことを認識し、投稿情報を通信部18を介してサーバ21に送信する(ステップ117)。
Thereafter, the
ここまで、図13に示すフローチャートを参照して、携帯端末11の動作を説明したが、次に、ユーザ側から見た携帯端末11の動作を、図14A~図14Gを参照して説明する。
Up to now, the operation of the
以下の説明中のステップの番号は図13のフローチャートのステップに対応している。また、図14A~図14Gに示す黒丸印は、ユーザが選択した画像または文字列をわかりやすく説明するために、ユーザの指がタッチパネル15に触れている位置を示す。
The step numbers in the following description correspond to the steps in the flowchart of FIG. 14A to 14G indicate positions where the user's finger is touching the
図14Aに示すように、ユーザが指をテレビエリア71に表示された人物に一定時間以上触れたままにすると(ステップ101)、図14Bに示すように、携帯端末11は、ユーザがタッチしていた人物に対する検索結果を、候補リストとして表示部17に表示させる(ステップ110)。図14Bに示す候補リストには、番組に出演している人物に関する情報の文字列「木村拓也」、「古畑任一郎」、「刑事一課主任」、・・・が記述されている。
As shown in FIG. 14A, when the user touches the person displayed on the
ユーザは指をタッチパネル15に触れさせたまま「古畑任一郎」の位置までスライドさせる。携帯端末11は、図14Cに示すように、ユーザが選択した「古畑任一郎」を枠で囲むように表示部17に表示させる。これにより、ユーザは「古畑任一郎」が選択されたことを認識できる。ここでは、ユーザが選択した文字列を枠で囲む場合を説明したが、ユーザが選択した文字列の色を他の文字列とは異なる色の表示にしてもよい。
The user slides the finger touching the
続いて、図14Dに示すように、携帯端末11は、選択された文字列「古畑任一郎」以外の文字列を表示部17に消去させる。ユーザが指をタッチパネル15に触れさせたままマークAの位置までスライドさせると、文字列「古畑任一郎」がマークAまで移動する。
Subsequently, as illustrated in FIG. 14D, the
ユーザが指をマークAの位置に達すると、図14Eに示すように、携帯端末11は、マークAに対応する文字列「いいね」、「ナイス!」、「GOOD!」、・・・を表示部17に表示させる(ステップ114)。その後、ユーザは指をタッチパネル15に触れさせたまま「ナイス!」の位置までスライドさせる。これにより、図14Fに示すように、携帯端末11は、「古畑任一郎」と「ナイス!」を組み合わせた投稿情報「古畑任一郎 ナイス!」を作成する。
When the user reaches the position of the mark A, as shown in FIG. 14E, the
さらに、ユーザが指をタッチパネル15に触れさせたまま投稿エリア73まで投稿情報をドラッグ操作すると、携帯端末11は、「古畑任一郎 ナイス!」を含む投稿情報をサーバ21に送信する(ステップ117)。その後、携帯端末11は、「古畑任一郎 ナイス!」の投稿メッセージをサーバ21から受信すると、図14Gに示すように、その投稿メッセージを表示部17の投稿エリア73に表示する。
Further, when the user drags the posting information to the
このようにして、ユーザは、「古畑任一郎 ナイス!」の投稿を、簡単に、かつ素早く行うことが可能となる。 In this way, the user can easily and quickly post “Nichiro Furuhata Nice!”.
別の一例として、放送される番組がスポーツ番組である場合、ユーザは、目的のスポーツ選手の画像を指で押さえ、続いて、マークに対応して表示された「いいねぇ」の文字列上を通過させ、最後に投稿エリアまで文字列をドラッグすると、「○○選手いいねぇ」といった投稿を素早く行うことができる。 As another example, when the program to be broadcast is a sports program, the user presses the image of the target sports player with a finger, and then moves on the character string of “Like” displayed corresponding to the mark. If you pass it and drag the character string to the posting area at the end, you can quickly make a post such as “Good XX player”.
本実施形態では、ユーザが指で「人物」→「マーク」→「投稿エリア」という経路で文字列をドラッグすることで、ユーザが選択した文字列を付加した投稿情報を入力することが可能となり、素早い文字入力を実現できる。 In this embodiment, the user can input post information with the character string selected by the user by dragging the character string with the finger in the route of “person” → “mark” → “posting area”. , Quick character input can be realized.
ユーザは、番組の映像をタッチし、選択した文字列をドラッグするだけで、番組に紐付いた文字列を、簡単に、かつ素早く得ることができ、画面の移り変わりの早いテレビ番組に対して、タイミングを逃さず投稿することができるようになる。 The user can easily and quickly obtain the character string associated with the program by simply touching the video of the program and dragging the selected character string. You can post without missing.
なお、上述の実施形態では、携帯端末がネットワーク検索を行う際、キーデータが番組に出演している人物の画像の場合で説明したが、番組に出てくる商品の場合にはその商品の名前やメーカー名、番組がスポーツ番組の場合は競技場名や地名など、キーデータに番組情報やスポンサー情報を含めて画像を検索することで、より正確で、番組に紐付いた文字列を取得することができる。 In the above-described embodiment, when the mobile terminal performs a network search, the key data is an image of a person appearing in the program. However, in the case of a product appearing in the program, the name of the product By searching for images including program information and sponsor information in key data, such as stadium names and place names if the program is a sports program, the character string associated with the program can be obtained more accurately. Can do.
また、上述の実施形態では、携帯端末がネットワーク検索を行った際、検索で得られた文字列を選択可能に表示させたが、その文字列が有名人の名前であればその人物のオフィシャルホームページのURLを、その文字列が商品名であればその商品のメーカーサイトのURLをリンク情報として付加して投稿できるようにしてもよい。また、文字列が地名の場合は、その地名の位置を地図上に示したマップ情報を投稿情報に付加できるようにしてもよい。 In the above-described embodiment, when the mobile terminal performs a network search, the character string obtained by the search is displayed in a selectable manner. If the character string is the name of a celebrity, the person's official home page is displayed. If the character string of the URL is a product name, the URL of the product manufacturer's site may be added as link information for posting. When the character string is a place name, map information indicating the position of the place name on the map may be added to the posted information.
図15Aおよび図15Bは番組中の人物のオフィシャルホームページのリンク情報を投稿情報に添付可能にした場合を説明するための図である。 FIG. 15A and FIG. 15B are diagrams for explaining a case where link information of a person's official homepage in a program can be attached to posted information.
図14Cを参照して説明したように、ユーザが文字列「古畑任一郎」を選択すると、制御部12は、ネットワーク検索の検索結果を参照し、「古畑任一郎」のオフィシャルホームページのURLの情報が含まれていると、図15Aに示すように、URLの添付を選択可能にした画像を、表示部17に表示させる。
As described with reference to FIG. 14C, when the user selects the character string “Nichiro Furabata”, the
図15Aに示した画面で、ユーザが「古畑任一郎」のオフィシャルホームページのURLの情報を投稿情報に含めたい場合、指を文字列「古畑任一郎」の位置から文字列「する」の位置までスライドさせる。これにより、図15Bに示すように、制御部12は、文字列「古畑任一郎」にオフィシャルHPのURLを添付した投稿情報を作成する。
In the screen shown in FIG. 15A, when the user wants to include the URL information of the official homepage of “Furuhata Shinichiro” in the posted information, the finger is moved from the position of the character string “Furuhata Shinichiro” to the character string “Yes” Slide. As a result, as shown in FIG. 15B, the
また、上述の実施形態では、画像認識部16が番組の画像から人物の顔または物体を抽出する場合を説明したが、画像認識部16は、物体を抽出する方法と同様にして、番組上のテロップの文字列を抽出してもよい。文字列の抽出方法の具体例を説明する。記憶部14に文字毎に文字の情報とその画像とを組にして予め登録しておく。画像認識部16は、番組上のテロップのエッジを検出して、番組の画像からテロップの部分を抽出し、テロップの最初の文字から終わりの文字まで順に、テロップの文字の画像と一致する画像を記憶部14で検索する。そして、画像認識部16は、テロップの文字の画像と一致する画像があると、その画像と組になって登録された文字の情報を読み出し、読み出した文字をテロップの最初の文字から終わりの文字に対応させて順に並べる。このようにして、画像認識部16は、番組上のテロップの文字列を認識する。
In the above-described embodiment, the case where the
また、上述の実施形態では、マークに対応して予め登録された文字列を選択可能に表示する場合で説明したが、番組情報に、現在時刻、番組で放送されているシーンが撮影された位置の情報、および番組を放送する放送局の位置の情報が含まれており、番組情報に対応した内容(挨拶や方言)に、制御部12が予め記述されたプログラムにしたがって投稿情報の表現方法を切り替えるようにしてもよい。
Further, in the above-described embodiment, a case has been described in which a character string registered in advance corresponding to a mark is displayed so as to be selectable. However, the current time and the position where a scene broadcast on the program is captured in the program information. And information on the location of the broadcasting station that broadcasts the program, and the
例えば、記憶部14に、マークBの文字列として予め登録されている「このギャグさむい」という表現を、制御部12は、テレビ部19から取得する番組情報を参照し、番組を放送する放送局が東北から北海道の放送局である場合には、「このギャグしばれる」という表現に変換する。
For example, the
また、上述の実施形態では、ユーザが「人物」を選択した後、「マーク」を選択して、投稿を指示する場合で説明したが、ユーザは、「マーク」の選択を始点にしてもよい。ユーザが番組そのものについて評価のメッセージを送る場合、テレビエリアから人物や物体を選択する必要がないからである。 In the above-described embodiment, the case where the user selects “person” and then selects “mark” to instruct posting is described. However, the user may select “mark” as a starting point. . This is because it is not necessary to select a person or object from the television area when the user sends an evaluation message for the program itself.
なお、本実施形態で説明した情報処理方法をコンピュータに実行させるためのプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよい。この場合、プログラムを記録媒体から他の情報処理装置にインストールすることで、他の情報処理装置にも上述した情報処理方法を実行させることが可能となる。 Note that a program for causing a computer to execute the information processing method described in this embodiment may be stored in a computer-readable recording medium. In this case, by installing the program from the recording medium into another information processing apparatus, it is possible to cause the other information processing apparatus to execute the above information processing method.
本発明の効果の一例として、配信中または放送中の番組に対して、簡単に、かつ素早く投稿することができる。 As an example of the effect of the present invention, it is possible to easily and quickly post a program being distributed or being broadcast.
以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiments, but the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
なお、この出願は、2012年7月3日に出願された日本出願の特願2012-149545の内容が全て取り込まれており、この日本出願を基礎として優先権を主張するものである。 This application incorporates all the contents of Japanese Patent Application No. 2012-149545 filed on July 3, 2012, and claims priority based on this Japanese application.
1 情報処理装置
2 制御部
5 操作部
6 画像認識部
7 表示部
8 通信部
11 携帯端末
DESCRIPTION OF SYMBOLS 1
Claims (8)
前記表示部が表示する画像に対する操作を検出し、操作を検出した領域である検出領域の位置を示す情報を出力する操作部と、
前記表示部が表示する番組の画像から、前記検出領域の位置に対応する画像を抽出する画像認識部と、
前記投稿欄に表示される情報を配信するサーバとネットワークを介して通信する通信部と、
前記画像認識部から該画像認識部が抽出した画像を受け取ると、該画像に関連する投稿情報を前記表示部に表示させ、前記操作部から受信する前記検出領域の移動経路の情報に基づいて、前記投稿情報の画像を前記投稿欄まで移動させる操作が行われたことを認識すると、該投稿情報を前記通信部を介して前記サーバに送信する制御部と、
を有する情報処理装置。 A display section for displaying a program being distributed or broadcast and a posting column of the program;
An operation unit that detects an operation on an image displayed by the display unit and outputs information indicating a position of a detection region that is a region in which the operation is detected;
An image recognition unit that extracts an image corresponding to the position of the detection region from an image of a program displayed by the display unit;
A communication unit that communicates via a network with a server that distributes information displayed in the posting field;
When the image extracted by the image recognition unit is received from the image recognition unit, the posting information related to the image is displayed on the display unit, and based on the movement path information of the detection area received from the operation unit, When recognizing that an operation to move the image of the posted information to the posted field has been performed, a control unit that transmits the posted information to the server via the communication unit;
An information processing apparatus.
前記制御部は、
前記画像認識部が抽出した画像をキーデータとして、該画像に関連する情報を前記ネットワーク上のウェブサイトで検索し、前記投稿情報をウェブサイトから取得する、情報処理装置。 The information processing apparatus according to claim 1,
The controller is
An information processing apparatus that uses the image extracted by the image recognition unit as key data, searches for information related to the image on a website on the network, and acquires the posted information from the website.
画像と該画像に関する情報とを組にして記憶する記憶部をさらに有し、
前記制御部は、
前記画像認識部が抽出した画像と一致する画像が前記記憶部に登録されているか否かを調べ、該画像認識部が抽出した画像と一致する画像が登録されていると、前記記憶部に該画像と同じ組に記憶された情報を、前記投稿情報として該記憶部から読み出す、情報処理装置。 The information processing apparatus according to claim 1,
A storage unit that stores an image and information about the image as a set;
The controller is
It is checked whether an image that matches the image extracted by the image recognition unit is registered in the storage unit. If an image that matches the image extracted by the image recognition unit is registered, the storage unit stores the image. An information processing apparatus that reads information stored in the same set as an image from the storage unit as the posted information.
前記表示部は、前記画像認識部が抽出した画像に関連する情報であって、それぞれ異なる情報である第1および第2の投稿情報のうち、該第2の投稿情報を表示するためのマークをさらに表示し、
前記制御部は、
前記第1の投稿情報を前記表示部に表示させた後、前記検出領域の移動経路の情報に基づいて、該第1の投稿情報の画像を前記マークまで移動させる操作が行われたことを認識すると、前記第2の投稿情報を前記表示部に表示させ、その後、前記検出領域の移動経路の情報に基づいて、該第2の投稿情報の画像を前記投稿欄まで移動させる操作が行われたことを認識すると、前記第1および第2の投稿情報を組み合わせた前記投稿情報を前記通信部を介して前記サーバに送信する、情報処理装置。 The information processing apparatus according to any one of claims 1 to 3,
The display unit is information related to the image extracted by the image recognition unit, and includes a mark for displaying the second posted information among first and second posted information which are different information. Show more,
The controller is
After displaying the first posting information on the display unit, it is recognized that an operation for moving the image of the first posting information to the mark has been performed based on the information on the movement path of the detection area. Then, the second posting information is displayed on the display unit, and then an operation for moving the image of the second posting information to the posting column is performed based on the information on the movement route of the detection area. If it recognizes, the information processing apparatus which transmits the said posting information which combined said 1st and 2nd posting information to the said server via the said communication part.
前記表示部は、前記配信中または放送中の番組を表示するためのテレビエリアと、前記マークを表示するためのマークエリアと、前記投稿欄を表示するための投稿エリアとを有し、
前記制御部は、
前記検出領域の移動経路が前記テレビエリアから前記マークエリアを経由して前記投稿エリアに達する経路であると、前記投稿情報を前記通信部を介して前記サーバに送信する、情報処理装置。 The information processing apparatus according to claim 4.
The display unit includes a television area for displaying the program being distributed or broadcast, a mark area for displaying the mark, and a posting area for displaying the posting column.
The controller is
The information processing apparatus that transmits the posting information to the server via the communication unit when a movement route of the detection area is a route reaching the posting area from the television area via the mark area.
前記表示部は、複数の前記マークを表示し、
前記第2の投稿情報が、前記画像認識部が抽出した画像に対する評価の内容であり、
複数のマーク毎に前記第2の投稿情報の種類が異なる、情報処理装置。 The information processing apparatus according to any one of claims 4 and 5,
The display unit displays a plurality of the marks,
The second posting information is the content of evaluation for the image extracted by the image recognition unit,
An information processing apparatus in which a type of the second posting information is different for each of a plurality of marks.
配信中または放送中の番組および該番組の投稿欄を前記表示部に表示させ、
前記表示部が表示する画像に対する操作を検出した領域である検出領域の位置を示す情報を前記操作部が出力すると、前記表示部が表示する番組の画像から、前記検出領域の位置に対応する画像を抽出し、
前記検出領域の移動経路の情報に基づいて、前記投稿情報の画像を前記投稿欄まで移動させる操作が行われたことを認識すると、該投稿情報を、前記投稿欄に表示される情報を配信するサーバに送信する、情報処理方法。 An information processing method executed by an information processing apparatus having a display unit and an operation unit,
A program being distributed or broadcast and a posting column of the program are displayed on the display unit;
When the operation unit outputs information indicating the position of a detection area that is an area in which an operation on an image displayed by the display unit is detected, an image corresponding to the position of the detection area is displayed from the program image displayed on the display unit. Extract
When recognizing that an operation for moving the image of the posted information to the posting column is performed based on the information of the movement path of the detection area, the posted information is distributed to the information displayed in the posting column. An information processing method to be transmitted to a server.
配信中または放送中の番組および該番組の投稿欄を前記表示部に表示させる手順と、
前記表示部が表示する画像に対する操作を検出した領域である検出領域の位置を示す情報を前記操作部が出力すると、前記表示部が表示する番組の画像から、前記検出領域の位置に対応する画像を抽出する手順と、
前記検出領域の移動経路の情報に基づいて、前記投稿情報の画像を前記投稿欄まで移動させる操作が行われたことを認識すると、該投稿情報を、前記投稿欄に表示される情報を配信するサーバに送信する手順を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。 In an information processing apparatus having a display unit and an operation unit,
A procedure for displaying a program being distributed or broadcast and a posting column of the program on the display unit;
When the operation unit outputs information indicating the position of a detection area that is an area in which an operation on an image displayed by the display unit is detected, an image corresponding to the position of the detection area is displayed from the program image displayed on the display unit. Steps to extract
When recognizing that an operation for moving the image of the posted information to the posting column is performed based on the information of the movement path of the detection area, the posted information is distributed to the information displayed in the posting column. A computer-readable recording medium storing a program for executing a procedure to be transmitted to a server.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2012-149545 | 2012-07-03 | ||
| JP2012149545 | 2012-07-03 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2014007020A1 true WO2014007020A1 (en) | 2014-01-09 |
Family
ID=49881780
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/JP2013/065544 Ceased WO2014007020A1 (en) | 2012-07-03 | 2013-06-05 | Information processing device, information processing method, and program |
Country Status (1)
| Country | Link |
|---|---|
| WO (1) | WO2014007020A1 (en) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106131593A (en) * | 2016-06-28 | 2016-11-16 | 乐视控股(北京)有限公司 | Content processing method and device |
| JP2019169976A (en) * | 2019-06-09 | 2019-10-03 | 田村 昌和 | Live distribution server, live distribution method, and program for assisting live distributor and the like |
| CN111385436A (en) * | 2018-12-28 | 2020-07-07 | 富士施乐株式会社 | Control device, control method, and computer-readable recording medium |
| CN112602330A (en) * | 2019-10-29 | 2021-04-02 | 海信视像科技股份有限公司 | Electronic device and nonvolatile storage medium |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010178337A (en) * | 2009-02-02 | 2010-08-12 | Samsung Electronics Co Ltd | Method of question and answer service, broadcast receiver having question and answer service function and recording medium |
| JP2011151741A (en) * | 2010-01-25 | 2011-08-04 | Nippon Hoso Kyokai <Nhk> | Option generation and presentation apparatus and option generation and presentation program |
-
2013
- 2013-06-05 WO PCT/JP2013/065544 patent/WO2014007020A1/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2010178337A (en) * | 2009-02-02 | 2010-08-12 | Samsung Electronics Co Ltd | Method of question and answer service, broadcast receiver having question and answer service function and recording medium |
| JP2011151741A (en) * | 2010-01-25 | 2011-08-04 | Nippon Hoso Kyokai <Nhk> | Option generation and presentation apparatus and option generation and presentation program |
Non-Patent Citations (2)
| Title |
|---|
| "Social Terebi Service no Tameno Comment Kaiseki Gijutsu", GIKEN KOKAI 2010 TENJI SHIRYO, May 2010 (2010-05-01) * |
| YAMAMOTO ET AL.: "Web-based Video Annotation and its Applications", FIT2004 DAI 3 KAI FORUM ON INFORMATION TECHNOLOGY IPPAN KOEN RONBUNSHU SEPARATE, vol. 3, 20 August 2004 (2004-08-20), pages 7 - 10 * |
Cited By (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN106131593A (en) * | 2016-06-28 | 2016-11-16 | 乐视控股(北京)有限公司 | Content processing method and device |
| CN111385436A (en) * | 2018-12-28 | 2020-07-07 | 富士施乐株式会社 | Control device, control method, and computer-readable recording medium |
| JP2019169976A (en) * | 2019-06-09 | 2019-10-03 | 田村 昌和 | Live distribution server, live distribution method, and program for assisting live distributor and the like |
| CN112602330A (en) * | 2019-10-29 | 2021-04-02 | 海信视像科技股份有限公司 | Electronic device and nonvolatile storage medium |
| US12039228B2 (en) | 2019-10-29 | 2024-07-16 | Hisense Visual Technology Co., Ltd. | Electronic device and non-transitory storage medium |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| US9355496B2 (en) | Image processing apparatus, image processing method, and medium to display augmented reality objects | |
| US10839605B2 (en) | Sharing links in an augmented reality environment | |
| US9549143B2 (en) | Method and mobile terminal for displaying information, method and display device for providing information, and method and mobile terminal for generating control signal | |
| JP5833551B2 (en) | System and method for searching the internet on video devices | |
| CN109391834B (en) | Playing processing method, device, equipment and storage medium | |
| CN111436006B (en) | Method, device, equipment and storage medium for displaying information on video | |
| US10147399B1 (en) | Adaptive fiducials for image match recognition and tracking | |
| US20140111542A1 (en) | Platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text | |
| US9986283B2 (en) | Display device, method of providing personalized object, and method of providing information | |
| EP2530675A2 (en) | Information processing apparatus, information processing method, and program | |
| KR101783115B1 (en) | Telestration system for command processing | |
| CN102855464A (en) | Information processing apparatus, metadata setting method, and program | |
| CN104954829A (en) | Display device and operating method thereof | |
| KR102591292B1 (en) | Apparatus and Method for Displaying and advertisement Server | |
| KR101727040B1 (en) | An electronic device, a method for providing menu using the same | |
| US20150261868A1 (en) | Method For Processing Information And Apparatus Thereof | |
| CN113342221A (en) | Comment information guiding method and device, storage medium and electronic equipment | |
| JP2020052986A (en) | Server system, application program distribution server, terminal for browsing, content browsing method, application program, distribution method and application program distribution method | |
| WO2014007020A1 (en) | Information processing device, information processing method, and program | |
| JP2020053026A (en) | Server system, application program distribution server, terminal for browsing, content browsing method, application program, distribution method and application program distribution method | |
| AU2012205152B2 (en) | A platform for recognising text using mobile devices with a built-in device video camera and automatically retrieving associated content based on the recognised text | |
| KR20120029229A (en) | Transparent display device and method for providing local information | |
| JP5476730B2 (en) | Mobile device | |
| KR20150097250A (en) | Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor | |
| KR20140136310A (en) | Image display device and control method thereof |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13813293 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 13813293 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: JP |