WO2018074658A1 - Terminal and method for implementing hybrid subtitle effect - Google Patents
Terminal and method for implementing hybrid subtitle effect Download PDFInfo
- Publication number
- WO2018074658A1 WO2018074658A1 PCT/KR2016/014667 KR2016014667W WO2018074658A1 WO 2018074658 A1 WO2018074658 A1 WO 2018074658A1 KR 2016014667 W KR2016014667 W KR 2016014667W WO 2018074658 A1 WO2018074658 A1 WO 2018074658A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- subtitle
- effect
- hybrid
- syllable
- caption
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/067—Combinations of audio and projected visual presentation, e.g. film, slides
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/08—Electrically-operated educational appliances providing for individual presentation of information to a plurality of student stations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/278—Subtitling
Definitions
- the present invention relates to a terminal and method for implementing a hybrid subtitle effect, and more particularly, to a terminal and method for implementing a hybrid subtitle effect to provide an effective language learning method by implementing various subtitle effects in a player.
- FIG. 1 is a diagram illustrating a user interface (UI) screen in which a caption effect is implemented in a general terminal 1.
- UI user interface
- FIG. 1 when a language learning subtitle effect is implemented according to the prior art, an original subtitle area T1 for implementing original subtitle information and a translation subtitle area for implementing translated subtitle information translated from a native language into native language ( It can be seen that T2) is provided.
- the language learning through the video content is a dialogue of the character in which the learning standard appears in the video content, and learning such as listening or reading is performed through the pronunciation and text information when the character speaks the dialogue in the video content.
- Patent Document 1 Korean Patent Application No. 10-2015-0046366 "METHOD AND APPARATUS FOR PROCESSING CAPTION IN DIGITAL BROADCASTING"
- Patent Document 2 Korean Patent Registration Publication No. 10-0989503 "METHOD AND APPARATUS FOR COMPOSITION OF SUBTITLES"
- Patent Document 3 Korean Patent Laid-Open Publication No. 10-2016-0106302 "Apparatus and Method for Creating Subtitle File for Edited Video (APPARATUS AND METHOD FOR GENERATING CAPTION FILE OF EDITED VIDEO)"
- Patent Document 4 Korean Patent Registration Publication No. 10-1188950 "VIDEO SIGNAL TRANSMITTING APPARATUS AND SUBTITLE REPLACING METHOD"
- the present invention is to solve the above problems, and to provide a terminal and method for implementing a hybrid caption effect for displaying the subtitles of the image content in the form of stress, pronunciation, syllables, etc. in the font, color change, and the like.
- the present invention provides a terminal and method for implementing a hybrid subtitle effect for maximizing the English learning effect by enabling the emphasizing, syllable portion of the subtitle is matched to the sync of the audio signal of the image to implement a variety of motion effects.
- the present invention by expressing not only the stress expression for the original subtitle, but also based on the subtitle translated into the native language, to improve the understanding of language learning through a more intuitive screen configuration than the conventional technology
- a hybrid caption effect implementation terminal and method are provided.
- the hybrid caption effect implementing terminal may include a caption sentence unit displayed in the original caption region T1 or the translation caption region T2 for each frame unit in the storage 140. Extracts and analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the original subtitle information of each frame unit, and divides the syllable part into at least one syllable part in each subtitle sentence unit.
- the hybrid subtitle effect may be a font effect of up or down of a font unit, a font size or color effect of a phoneme or a character, or an example of each character of the phoneme part I1. It may be a preset operation effect.
- the first accent and syllable syncing means 151a may extract sync flag information for outputting at least one or more phoneme portions I1 analyzed as stresses among the divided syllable parts.
- first accent and syllable sync means 151a may implement effects on at least one or more phoneme portions I1 analyzed as accents matching the sync flag information.
- the first accent and syllable syncing means 151a may implement a hybrid subtitle area T3 on which the font effect or motion effect is implemented, above the original subtitle area T1, or utilize the original subtitle area T1. Can be implemented.
- the first accent and syllable syncing means 151a converts the original subtitle information output to the original subtitle area T1 into Korean pronunciation, and then analyzes the phoneme portion of the Korean pronunciation based on the converted Korean pronunciation.
- the size of the font may be embodied as the original caption area T1 or the hybrid caption area T3 at a magnification set in advance than the reference size.
- the present invention also extracts at least one phoneme portion I3 analyzed with accent matching that matches the sync flag information extracted by the first accent and syllable sync means 151a.
- the second accent and syllable syncing means 151b converts the original subtitle output to the original subtitle area T1 into Korean pronunciation, and then analyzes the phoneme portion of the Korean pronunciation based on the converted Korean pronunciation. After extracting only I4), the hybrid caption effect on only the extracted phoneme part I4 may be applied to implement the UI screen on the input / output unit 110 only for the character to which the hybrid caption effect is applied.
- the present invention also recognizes sync flag information (sync flag) for the extracted phoneme portions (I1, I2) by the first stress and syllable sync means (151a), and simultaneously operates the operation codes (I5, I5 ').
- the present invention also provides sync flag information (sync flag) for outputting at least one or more phoneme parts analyzed as stresses among syllable parts divided by each subtitle sentence unit by the first accent and syllable sync means 151a. If extracted, language conversion means 151d for extracting the original subtitle information implemented in the original subtitle area T1 from the storage unit 140 and converting the original subtitle information to another foreign language or another foreign language pronunciation through a multinational language pronunciation conversion module; It may further include.
- the language converted by the language conversion means 151d may include any multinational language using a language other than English as a native language.
- the present invention after extracting the sync flag information (sync flag) for outputting at least one or more phoneme portion (I1 ') analyzed as stress, the accent matching with the sync flag information according to recognition of each sync flag information (sync flag) Speech balloon effect providing means 151e for implementing a hybrid caption effect on at least one phoneme part I1 ′ analyzed into the speech bubble icon I8; It may further include.
- the present invention also analyzes the stress of each word constituting each subtitle sentence unit or the stress of an entire sentence based on the original subtitle information of each frame unit, and divides the syllable part into at least one syllable part in each subtitle sentence unit.
- the hybrid subtitle effect may be implemented on at least one or more phoneme parts analyzed as stresses.
- the hybrid subtitle effect of the present invention may be implemented by the hybrid subtitle alone, or with the original subtitle, or with a subtitle translated into a multilingual language, or may be implemented with a translation subtitle.
- the hybrid subtitle effect implementation method to achieve the above object, at least one syllable portion in each subtitle sentence unit analyzed by the control unit 150 of the hybrid subtitle effect implementation terminal 100
- the controller 150 implements the caption sentence information consisting of a set of caption sentence units together with a video or an image as the input / output unit 110, the controller 150 matches the extracted sync flag information according to the extracted sync flag information.
- the hybrid subtitle effect of the second step may be one of a font size / color effect and an operation effect.
- a first preparatory process of the control unit 150 to extract the caption sentence unit displayed in the original caption area (T1) for each frame unit in the storage unit 140; This can be done further.
- the controller 150 stresses each word constituting each subtitle sentence unit based on the original subtitle information for each frame unit implemented in the original subtitle area T1 or A second preparation process of analyzing the stress of the whole sentence; This can be done further.
- the terminal and method for implementing a hybrid subtitle effect according to an embodiment of the present invention can specify and display stress, pronunciation, syllable, and the like, thereby providing an effect of improving the efficiency of language learning.
- the terminal and method for implementing a hybrid subtitle effect by emphasizing the subtitles and syllables of the subtitles to match the sync of the audio signal of the image to implement a variety of motion effects, maximize the English learning effect It can be effective.
- the terminal and method for implementing the hybrid subtitle effect according to another embodiment of the present invention by expressing the accent not only based on the accent for the original subtitle, but also based on the subtitles converted into the native language and the multilingual language, the prior art Compared to this, more intuitive screen composition is provided to improve the understanding of language learning.
- FIG. 1 is a diagram illustrating a user interface (UI) screen in which a general subtitle effect is implemented.
- UI user interface
- FIG. 2 is a diagram illustrating a hybrid caption effect implementing terminal 100 according to an embodiment of the present invention.
- FIG. 3 is a block diagram illustrating the components of the hybrid caption effect providing module 151 of the controller 150 of the hybrid caption effect implementing terminal 100 of FIG. 2.
- FIG. 4 to 8 are diagrams illustrating a user interface (UI) screen implemented in the input / output unit 110 of the hybrid caption effect implementing terminal 100 of FIG. 2.
- UI user interface
- FIG. 9 is a diagram illustrating the concept of a hybrid caption effect implementation method according to an embodiment of the present invention.
- FIG. 10 is a diagram illustrating various hybrid caption effect implementation examples according to a hybrid caption effect implementation method according to an embodiment of the present invention.
- FIG. 11 is a reference diagram illustrating an embodiment of a subtitle pattern that can be implemented by a hybrid subtitle effect implementing method according to an embodiment of the present invention.
- FIG. 12 is a reference diagram illustrating a configuration for a systematic configuration platform for each level and level of a language learning method using a hybrid subtitle effect implementation method according to an embodiment of the present invention.
- FIG. 13 is a flowchart illustrating a method of implementing a hybrid subtitle effect according to an embodiment of the present invention.
- the component when one component 'transmits' data or a signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component. This means that data or signals can be transmitted to other components.
- FIG. 2 is a diagram illustrating a hybrid caption effect implementing terminal 100 according to an embodiment of the present invention.
- the hybrid caption effect implementing terminal 100 includes an input / output unit 110, an I / O interface 120, a transceiver 130, a storage 140, and a controller 150.
- 150 may include a hybrid subtitle effect providing module 151, a preview and screen size control module 152, an online search based dictionary providing module 153, and a speaking providing module 154.
- the hybrid caption effect providing module 151 is formed to provide a font size or color change effect and a motion expression effect on phonemes or characters recognized as strong in the caption information.
- the preview and screen size control module 152 is formed through the input / output unit 110 to control the preview of the caption information and the screen size setting for the caption areas T1, T2, and T3.
- the preview setting may be divided into 5 seconds, 30 seconds, 60 seconds, and synchronization
- the screen size setting may be divided into an original, a whole, and subtitle information.
- the present invention is illustrated by separating the subtitle area into an original subtitle area T1, a translation subtitle area T2, and a hybrid subtitle area T3, but the present invention is not limited thereto. Of course, only the original subtitle area T1 may be implemented.
- the online search-based dictionary providing module 153 controls the transceiver 130 to perform an online dictionary search through access to a translation service server that provides a translation service site connected to a network. You can provide accent information for the unit.
- Speaking providing module 154 is a speech (speaking) function, and provides a voice recording and analysis process for language learning through a microphone formed separately in the hybrid subtitle effect implementation terminal 100 through a listening and speaking / recording service category, A process of receiving, storing, and analyzing a user's text input from the input / output unit 110 that can be formed as a touch screen through a comparison listening / listening / writing service category may be provided.
- FIG. 3 is a block diagram illustrating the components of the hybrid caption effect providing module 151 of the controller 150 of the hybrid caption effect implementing terminal 100 of FIG. 2.
- FIG. 4 to 8 are diagrams illustrating a user interface (UI) screen implemented in the input / output unit 110 of the hybrid caption effect implementing terminal 100 of FIG. 2.
- UI user interface
- the hybrid subtitle effect providing module 151 may include a first accent and syllable sync means 151a, a second accent and syllable sync means 151b, a third accent and syllable sync means 151c, and language conversion. Means 151d and a speech bubble effect providing means 151e.
- hybrid caption effect implementation terminal 100 will be described in detail with reference to FIGS. 4 to 8, with reference to the configuration of the hybrid caption effect providing module 151 of FIG. 2.
- the first accent and syllable syncing unit 151a extracts the caption sentence units represented by the frame-based original caption region T1 and the translation caption region T2 from the storage 140. Subsequently, the first accent and syllable syncing means 151a analyzes the accent of each word constituting each subtitle sentence unit or the accent of the entire sentence based on the original subtitle information for each frame unit through the DB of the storage unit 140. After dividing the syllable part into at least one syllable part in each subtitle sentence unit, sync flag information (sync flag) for output is extracted for at least one or more phoneme parts I1 analyzed as stresses among the divided syllable parts.
- the first accent and syllable sync means 151a may be configured to increase or decrease font units of at least one phoneme part I1 analyzed as accent matching with each sync flag information.
- a variety of motion effects may be implemented, such as a font effect of down), or a waving graphic effect for each character constituting the phoneme part I1 as an example.
- the hybrid subtitle area T3 in which the font effect or motion effect is implemented may be implemented above the original subtitle area T1 or may be implemented by using the original subtitle area T1. Of course, it may be implemented below the original subtitle area T1.
- the first accent and syllable syncing means 151a may set the font size to a preset magnification than the reference size for the phoneme portion I1 analyzed as accent in each syllable unit in the original subtitle area T1. It can be largely implemented.
- the first accent and syllable syncing means 151a converts original subtitle information output to the original subtitle area T1 of FIG. 4A into Korean pronunciation, and then, based on the converted Korean pronunciation,
- the font size of the phoneme portion I2 that is analyzed as strong may be embodied as the original subtitle area T1 or the hybrid subtitle area T3 at a preset magnification than the reference size.
- not only the change in the font size but also the change in the color of the font may express the stress.
- the font size and color change can be embodied by distinguishing not only the stress but also the pronunciation (phoneme part constituting the pronunciation) and the display of the syllable.
- the second accent and syllable sync means 151b divides the syllable parts into at least one syllable part in each subtitle sentence unit in the same manner as the first accent and syllable sync means 151a, and then analyzes the accents among the divided syllable parts.
- Sync flag information (sync flag) for outputting the extracted at least one phoneme part is extracted.
- the second accent and syllable sync means 151b extracts at least one or more phoneme portions I3 analyzed as accents matching the sync flag information, and then extracts the extracted phoneme portions I3.
- a font effect of only up or down of a font unit may be implemented as shown in FIG. 5A.
- the hybrid subtitle area T3 in which the font effect is implemented may be embodied above the original subtitle area T1 or may replace the original subtitle area embodied in the original subtitle area T1.
- the second accent and syllable syncing unit 151b converts the original subtitle output to the original subtitle region T1 of FIG. 5A into Korean pronunciation, and then, based on the converted Korean pronunciation, After extracting only the phoneme portion I4 analyzed as accentuated, the font size of the extracted phoneme portion I4 can be embodied in the original subtitle area T1 or the hybrid subtitle area T3 at a preset magnification than the reference size. have.
- not only the change in the size of the font but also the change in the color of the font may express the stress on the phoneme portions I3 and I4.
- the third accented and syllable syncing means 151c is the same manner as the first accented and syllable syncing means 151a, in a font unit up to at least one or more phoneme portions I1 and I2 analyzed as accentuated or The same font effect of down can be implemented.
- the third accent and syllable sync means 151c recognizes sync flag information about the extracted phoneme portions I1 and I2, the third accent and syllable sync means 151c simultaneously displays various operation codes I5 and I5 '. Likewise, it can be displayed above the first character of the phoneme.
- the third stress and syllable sync means 151c recognizes not only the extracted phoneme portions I1 and I2 but also sync flag information that indicates the beginning of the syllable and rhythm portions in which the whole sentence is stressed.
- various operation codes I5 and I5 ' may be displayed above the first character of the phoneme as shown in FIG. 6.
- the language converting means 151d divides the syllable parts into at least one syllable part in each subtitle sentence unit in the same manner as the first accent and syllable sync means 151a, and then at least one or more of the divided syllable parts are analyzed as stresses. Extract sync flag information for the phoneme part.
- the language converting means 151d extracts the original caption information implemented in the original caption area T1 from the storage 140 and then pronounces another foreign language or another foreign language through its multinational language pronunciation conversion module. 4 to 6 are Korean, and FIG. 7 is Japanese and Chinese).
- the language converting means 151d may control the transceiver 130 to receive the translation service subtitle information through access to a translation service site connected to a network by controlling the transceiver 130 in relation to the original subtitle information.
- the language converting means 151d analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the subtitle information translated into the multilingual language per frame through the DB of the storage unit 140. After dividing the syllable parts into at least one syllable part in each subtitle sentence unit, sync flag information (sync flag) for output is extracted for at least one or more phoneme parts I1 analyzed as stresses among the divided syllable parts. .
- the language converting means 151d is configured to up or down the font unit for at least one or more phoneme portions I6 and I7 analyzed according to the sync flag recognition.
- Various motion effects may be implemented, such as a font effect or a wave graphic effect for each character constituting the phoneme portions I6 and I7 as an example.
- the language converting means 151d recognizes not only the extracted phoneme portions I6 and I7 but also sync flag information (sync flag) indicating the beginning of a syllable and a rhythm portion in which the whole sentence starts to be stressed.
- sync flag sync flag information
- the operation codes I6 and I7 may be displayed above the first character of the phoneme as shown in FIG. 7.
- FIG. 4 to FIG. 7 show only the state in which the hybrid subtitles, the original subtitles, and the translated subtitles are all sequentially implemented in the video content
- the present invention is not limited thereto.
- the hybrid subtitles alone or the hybrid subtitles may be implemented.
- the subtitles may be implemented with subtitles, or may be implemented with subtitles translated into multilingual languages or with subtitles translated.
- only original subtitles in which fonts or accents are expressed may be implemented in the image content, or hybrid subtitles and original subtitles in which fonts or accents are expressed may be simultaneously or sequentially implemented.
- the speech balloon effect providing unit 151e extracts the caption sentence unit represented by the frame-based original caption region T1 and the translation caption region T2 from the storage unit 140. Thereafter, the speech bubble effect providing unit 151e analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence on the basis of the original subtitle information for each frame unit through the DB of the storage unit 140, and each subtitle. After dividing the syllable parts into at least one syllable unit, the sync flag information for outputting the at least one phoneme part I1 ′ analyzed as stress among the divided syllable parts is extracted.
- the speech bubble effect providing means 151e may be configured to increase or decrease the font unit for at least one or more phoneme portions I1 ′ analyzed according to the sync flag information.
- the speech bubble effect providing unit 151e does not implement the original subtitle area T1 and the translation subtitle area T2, and the balloon icon I8 has a font effect or motion effect in the original subtitle information.
- Implementation of the implemented phoneme portion I1 ′ may be performed.
- the speech balloon effect providing unit 151e converts original subtitle information for implementing font effects or motion effects in the speech balloon icon I8 of FIG. 8A into Korean pronunciation and then based on the converted Korean pronunciation.
- the font size of the phoneme portion I2 ′ analyzed strongly in Korean pronunciation may be embodied in the speech bubble icon I8 at a preset magnification than the reference size.
- the terminal for implementing the hybrid caption effect analyzes the stress of each word constituting each caption sentence unit or the stress of the whole sentence based on the original caption information of each frame unit, and analyzes the stress of each subtitle sentence unit. After dividing the syllable part into at least one or more, characterized in that to implement a hybrid subtitle effect on at least one or more phoneme parts analyzed as stress.
- not only the change in the font size but also the change in the color of the font may express the stress.
- the font size and color change can be embodied by distinguishing not only the stress but also the pronunciation (phoneme part constituting the pronunciation) and the display of the syllable.
- not only the accent due to the change in the size and color of the font but also the hybrid subtitles in which the display of the pronunciation and the syllables are divided, or the original subtitles in which the font or accent is expressed may correspond to the video content.
- the hybrid subtitles in which the display of the pronunciation and the syllables are divided, or the original subtitles in which the font or accent is expressed may correspond to the video content.
- it can also be implemented in a sentence form in a wave form from the mouth of the character who is speaking.
- FIG. 9 is a diagram illustrating the concept of a hybrid caption effect implementation method according to an embodiment of the present invention.
- 10 is a diagram illustrating various hybrid caption effect implementation examples according to a hybrid caption effect implementation method according to an embodiment of the present invention.
- the hybrid subtitle effect providing module 151 may analyze the DB of the storage 140 or the accent information corresponding to the phoneme unit of each word constituting each subtitle sentence unit based on the original subtitle T1.
- the transceiver 130 is controlled to obtain the query through the stress analysis server connected to the network.
- the hybrid subtitle effect providing module 151 extracts the first accent and the second accent information from the accent information, and sets the intermediate font size larger than the preset reference font size for the characters corresponding to the first accent information. Subtitles through differentiation of the font size are set for a character corresponding to the second accent information by a large font set larger than the intermediate font size and implemented in the hybrid subtitle area T3 or the original subtitle area T1 as shown in FIG. 10A. Perform the expression.
- the hybrid subtitle effect providing module 151 performs hybrid subtitle area T3 or original subtitle area for each word or sentence classified into first to nth accent information (n is a natural number of 2 or more) from the obtained accent information.
- n is a natural number of 2 or more
- the hybrid subtitle effect providing module 151 may extract sync flag information for outputting at least one or more characters which are analyzed as stresses through the original subtitle information of the storage 140.
- the hybrid subtitle effect providing module 151 performs hybrid subtitle area T3 or original subtitle area for each word or sentence classified into first to nth accent information (n is a natural number of 2 or more) from the obtained accent information.
- n is a natural number of 2 or more
- the hybrid subtitle effect providing module 151 may extract sync flag information (sync flag) for outputting at least one or more characters which are analyzed as stresses through the original subtitle information of the storage 140.
- the hybrid subtitle effect providing module 151 implements the UI screen as shown in FIG. 10B or 10C and at the same time, the accent belongs to the greatest intensity information as the intensity information among the first to n th stress information described above with reference to FIG. 10A.
- various operation icons may be displayed on the upper side with letters.
- 11 is a reference diagram illustrating seven subtitle patterns that may be implemented by a hybrid subtitle effect implementing method according to an embodiment of the present invention.
- 12 is a reference diagram illustrating a configuration for a systematic configuration platform for each level and level of a language learning method using a hybrid subtitle effect implementation method according to an embodiment of the present invention.
- FIG. 13 is a flowchart illustrating a method of implementing a hybrid subtitle effect according to an embodiment of the present invention.
- the controller 150 of the hybrid caption effect implementing terminal 100 extracts a caption sentence unit displayed in the original caption region T1 for each frame unit from the storage 140 (S11).
- the storage unit 140 may extract the caption sentence unit represented by the translation caption area T2.
- the controller 150 analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the original subtitle information for each frame unit implemented in the original subtitle area T1 (S12). ).
- step S12 the controller 150 divides the syllable parts into at least one syllable part in each subtitle sentence unit analyzed in step S12, and then, for at least one phoneme part analyzed as stress among the divided syllable parts.
- Sync flag information (sync flag) for output is extracted (S13).
- the control unit 150 implements the caption sentence information consisting of a set of caption sentence units together with the video or the video content as the input / output unit 110
- the sync flag information extracted in the step S13 implements a font size / color effect and an operation effect on at least one or more phoneme parts analyzed according to the accent matching with the recognition (S14).
- the terminal according to the present invention can give a subtitle in which fonts and accents are expressed in voice, text, image content, and animation, which are reproduced in real time in connection with the Internet.
- the invention can also be embodied as computer readable code on a computer readable recording medium.
- Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system.
- Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
- the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
- functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Entrepreneurship & Innovation (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
Description
본 발명은 하이브리드 자막 효과 구현 단말 및 방법에 관한 것으로, 보다 구체적으로는, 다양한 자막 효과를 플레이어에 구현하여, 효과적인 언어 학습 방법을 제공하도록 하기 위한 하이브리드 자막 효과 구현 단말 및 방법에 관한 것이다. The present invention relates to a terminal and method for implementing a hybrid subtitle effect, and more particularly, to a terminal and method for implementing a hybrid subtitle effect to provide an effective language learning method by implementing various subtitle effects in a player.
최근 보다 효율적인 외국어의 어학학습을 위해 외국 영화나 드라마와 같은 영상콘텐츠를 통해 재미있게 학습하고자 하는 사용자들이 증가하고 있다.Recently, for more efficient language learning, more and more users are interested in learning through video contents such as foreign movies and dramas.
이와 관련하여, 도 1은 일반적인 단말(1)에 자막 효과가 구현된 유저 인터페이스(User Interface, 이하, 'UI') 화면을 나타내는 도면이다. 도 1을 참조하면, 종래의 기술에 따른 언어 학습 자막 효과 구현시, 원본 자막 정보를 구현하는 원본 자막 영역(T1)과, 원본 자막 정보를 모국어로 번역한 번역 자막 정보를 구현하는 번역 자막 영역(T2)이 제공됨을 알 수 있다. In this regard, FIG. 1 is a diagram illustrating a user interface (UI) screen in which a caption effect is implemented in a general terminal 1. Referring to FIG. 1, when a language learning subtitle effect is implemented according to the prior art, an original subtitle area T1 for implementing original subtitle information and a translation subtitle area for implementing translated subtitle information translated from a native language into native language ( It can be seen that T2) is provided.
이외에 원본 자막 정보만을 또는 각 모국어로 번역된 번역 자막 정보만을 구현한 영역이 제공된다.In addition, an area for implementing only original subtitle information or only translated subtitle information translated into each native language is provided.
이와 같은 영상콘텐츠를 통한 어학학습은 학습 기준이 영상콘텐츠에 등장하는 캐릭터의 대사로써, 캐릭터가 영상콘텐츠내에서 대사를 말할때의 발음과 텍스트 정보를 통해 듣기나 읽기와 같은 학습이 이루어지는 것이다.The language learning through the video content is a dialogue of the character in which the learning standard appears in the video content, and learning such as listening or reading is performed through the pronunciation and text information when the character speaks the dialogue in the video content.
그러나, 이러한 종래의 자막 구조로는 원본 자막 정보에 해당하는 학습 대상이 되는 언어의 강세, 발음, 음절 표기가 불가능하여, 해당 언어의 단어나 문장을 구분해 듣는 것이 용이하지 않아 듣지 못하고 놓치는 문장이나 단어가 많게 되고, 결국 자막을 이용한 영어 학습에 한계가 있는 문제점이 있다.However, in the conventional subtitle structure, the emphasis, pronunciation, and syllable notation of the language corresponding to the original subtitle information is impossible, and it is not easy to separate words or sentences of the corresponding language, and thus missed sentences, There are many words, and eventually there is a problem that there is a limit in learning English using subtitles.
(선행기술문헌)(Prior art document)
(특허문헌 1) 대한민국 특허출원 출원번호 제10-2015-0046366호 "디지털 방송에서 자막 처리 방법 및 장치(METHOD AND APPARATUS FOR PROCESSING CAPTION IN DIGITAL BROADCASTING)"(Patent Document 1) Korean Patent Application No. 10-2015-0046366 "METHOD AND APPARATUS FOR PROCESSING CAPTION IN DIGITAL BROADCASTING"
(특허문헌 2) 대한민국 특허등록공보 등록번호 제10-0989503호 "자막 작성 방법 및 장치(METHOD AND APPARATUS FOR COMPOSITION OF SUBTITLES)"(Patent Document 2) Korean Patent Registration Publication No. 10-0989503 "METHOD AND APPARATUS FOR COMPOSITION OF SUBTITLES"
(특허문헌 3) 대한민국 특허공개공보 공개번호 제10-2016-0106302호 "편집본 동영상에 대한 자막파일을 생성하는 장치 및 방법(APPARATUS AND METHOD FOR GENERATING CAPTION FILE OF EDITED VIDEO)"(Patent Document 3) Korean Patent Laid-Open Publication No. 10-2016-0106302 "Apparatus and Method for Creating Subtitle File for Edited Video (APPARATUS AND METHOD FOR GENERATING CAPTION FILE OF EDITED VIDEO)"
(특허문헌 4) 대한민국 특허등록공보 등록번호 제10-1188950호 "영상 송출 장치 및 자막 교체 방법(VIDEO SIGNAL TRANSMITTING APPARATUS AND SUBTITLE REPLACING METHOD)"(Patent Document 4) Korean Patent Registration Publication No. 10-1188950 "VIDEO SIGNAL TRANSMITTING APPARATUS AND SUBTITLE REPLACING METHOD"
본 발명은 상기의 문제점을 해결하기 위한 것으로, 영상콘텐츠의 자막을 폰트, 색상 변화 등으로 강세, 발음, 음절 등이 표시될 수 있도록 하기 위한 하이브리드 자막 효과 구현 단말 및 방법을 제공하기 위한 것이다.The present invention is to solve the above problems, and to provide a terminal and method for implementing a hybrid caption effect for displaying the subtitles of the image content in the form of stress, pronunciation, syllables, etc. in the font, color change, and the like.
또한, 본 발명은 자막의 강세, 음절 부분이 영상의 음성 신호의 싱크에 매칭되어 다양한 동작 효과 구현 가능하도록 함으로써, 영어 학습 효과를 극대화하도록 하기 위한 하이브리드 자막 효과 구현 단말 및 방법을 제공하기 위한 것이다.In addition, the present invention provides a terminal and method for implementing a hybrid subtitle effect for maximizing the English learning effect by enabling the emphasizing, syllable portion of the subtitle is matched to the sync of the audio signal of the image to implement a variety of motion effects.
또한, 본 발명은 원본 자막에 대한 강세 표현뿐만 아니라, 모국어로 번역된 자막을 기준으로도 강세를 표현함으로써, 종래의 기술에 비해 보다 직관적인 화면 구성을 통해 언어 학습의 이해를 향상시키도록 하기 위한 하이브리드 자막 효과 구현 단말 및 방법을 제공하기 위한 것이다.In addition, the present invention by expressing not only the stress expression for the original subtitle, but also based on the subtitle translated into the native language, to improve the understanding of language learning through a more intuitive screen configuration than the conventional technology A hybrid caption effect implementation terminal and method are provided.
그러나 본 발명의 목적들은 상기에 언급된 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to the above-mentioned objects, and other objects not mentioned will be clearly understood by those skilled in the art from the following description.
상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 단말은, 프레임 단위별 원본 자막 영역(T1) 또는 번역 자막 영역(T2)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출하며, 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 강세로 분석된 적어도 하나 이상의 음소 부분(I1)에 대한 하이브리드 자막 효과를 구현하는 제 1 강세 및 음절 싱크 수단(151a); 을 포함할 수 있다.In order to achieve the above object, the hybrid caption effect implementing terminal according to an embodiment of the present invention may include a caption sentence unit displayed in the original caption region T1 or the translation caption region T2 for each frame unit in the storage 140. Extracts and analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the original subtitle information of each frame unit, and divides the syllable part into at least one syllable part in each subtitle sentence unit. First stress and syllable syncing means 151a for implementing a hybrid subtitle effect on the analyzed at least one phoneme portion I1; It may include.
이때, 상기 하이브리드 자막 효과는, 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과, 음소 또는 문자에 대한 폰트 크기 또는 색상 효과, 또는 하나의 예시로 음소 부분(I1)을 이루는 각 문자의 상위에 미리 설정된 동작 효과일 수 있다.In this case, the hybrid subtitle effect may be a font effect of up or down of a font unit, a font size or color effect of a phoneme or a character, or an example of each character of the phoneme part I1. It may be a preset operation effect.
또한, 제 1 강세 및 음절 싱크 수단(151a)은, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분(I1)을 출력을 위한 싱크 플래그 정보(sync flag)를 추출할 수 있다.The first accent and syllable syncing means 151a may extract sync flag information for outputting at least one or more phoneme portions I1 analyzed as stresses among the divided syllable parts.
또한, 제 1 강세 및 음절 싱크 수단(151a)은, 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I1)에 대한 효과를 구현할 수 있다.In addition, the first accent and syllable sync means 151a may implement effects on at least one or more phoneme portions I1 analyzed as accents matching the sync flag information.
또한, 제 1 강세 및 음절 싱크 수단(151a)은, 폰트 효과 또는 동작 효과가 구현되는 하이브리드 자막 영역(T3)을 원본 자막 영역(T1)의 상위에 구현할 수도 있고, 원본 자막 영역(T1)을 활용하여 구현할 수 있다.In addition, the first accent and syllable syncing means 151a may implement a hybrid subtitle area T3 on which the font effect or motion effect is implemented, above the original subtitle area T1, or utilize the original subtitle area T1. Can be implemented.
또한, 제 1 강세 및 음절 싱크 수단(151a)은, 원본 자막 영역(T1)으로 출력되는 원본 자막 정보를 한글 발음으로 변환한 뒤, 변환된 한글 발음을 기준으로 한글 발음 중 강세로 분석된 음소 부분(I2)에 대해서 폰트의 크기를 기준 크기보다 미리 설정된 배율로 크게 원본 자막 영역(T1) 또는 하이브리드 자막 영역(T3)으로 구현할 수 있다.In addition, the first accent and syllable syncing means 151a converts the original subtitle information output to the original subtitle area T1 into Korean pronunciation, and then analyzes the phoneme portion of the Korean pronunciation based on the converted Korean pronunciation. For (I2), the size of the font may be embodied as the original caption area T1 or the hybrid caption area T3 at a magnification set in advance than the reference size.
또한, 본 발명은, 제 1 강세 및 음절 싱크 수단(151a)에 의해 추출된 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I3)에 대한 추출한 뒤, 추출된 음소 부분(I3) 만에 대한 하이브리드 자막 효과를 적용하여 하이브리드 자막 효과가 적용된 문자에 대해서만 입출력부(110)에 UI 화면으로 구현하는 제 2 강세 및 음절 싱크 수단(151b); 을 더 포함할 수 있다.The present invention also extracts at least one phoneme portion I3 analyzed with accent matching that matches the sync flag information extracted by the first accent and syllable sync means 151a. A second accent and syllable syncing means 151b for applying the hybrid caption effect to only the extracted phoneme part I3 to implement the UI screen on the input /
또한, 제 2 강세 및 음절 싱크 수단(151b)은, 원본 자막 영역(T1)으로 출력되는 원본 자막을 한글 발음으로 변환한 뒤, 변환된 한글 발음을 기준으로 한글 발음 중 강세로 분석된 음소 부분(I4)에 대해서만 추출한 뒤, 추출된 음소 부분(I4) 만에 대한 하이브리드 자막 효과를 적용하여 하이브리드 자막 효과가 적용된 문자에 대해서만 입출력부(110)에 UI 화면으로 구현할 수 있다.Also, the second accent and syllable syncing means 151b converts the original subtitle output to the original subtitle area T1 into Korean pronunciation, and then analyzes the phoneme portion of the Korean pronunciation based on the converted Korean pronunciation. After extracting only I4), the hybrid caption effect on only the extracted phoneme part I4 may be applied to implement the UI screen on the input /
또한, 본 발명은, 제 1 강세 및 음절 싱크 수단(151a)에 의한 추출된 음소 부분(I1, I2)에 대한 싱크 플래그 정보(sync flag)를 인식시, 동시에 동작 부호(I5, I5')를 음소의 첫 문자의 상위에 표시하는 제 3 강세 및 음절 싱크 수단(151c); 을 더 포함할 수 있다. The present invention also recognizes sync flag information (sync flag) for the extracted phoneme portions (I1, I2) by the first stress and syllable sync means (151a), and simultaneously operates the operation codes (I5, I5 '). Third accent and syllable syncing means (151c) displayed above the first character of the phoneme; It may further include.
또한, 본 발명은, 제 1 강세 및 음절 싱크 수단(151a)에 의해 각 자막 문장 단위에서 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출이 되면, 원본 자막 영역(T1)에 구현되는 원본 자막 정보를 저장부(140)로부터 추출한 뒤, 다국적 언어 발음 변환 모듈을 통해 다른 외국어 또는 다른 외국어 발음으로 변환하는 언어 변환 수단(151d); 을 더 포함할 수 있다. The present invention also provides sync flag information (sync flag) for outputting at least one or more phoneme parts analyzed as stresses among syllable parts divided by each subtitle sentence unit by the first accent and syllable sync means 151a. If extracted, language conversion means 151d for extracting the original subtitle information implemented in the original subtitle area T1 from the storage unit 140 and converting the original subtitle information to another foreign language or another foreign language pronunciation through a multinational language pronunciation conversion module; It may further include.
또한, 본 발명은, 상기 언어 변환 수단(151d)에 의해 변환되는 언어는 영어이외의 언어를 모국어로 사용하는 모든 다국적 언어를 포함할 수 있다. In addition, according to the present invention, the language converted by the language conversion means 151d may include any multinational language using a language other than English as a native language.
또한, 본 발명은, 강세로 분석된 적어도 하나 이상의 음소 부분(I1')을 출력을 위한 싱크 플래그 정보(sync flag)를 추출한 뒤, 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I1')에 대한 하이브리드 자막 효과를 말풍선 아이콘(I8)의 내부에 구현하는 말풍선 효과 제공 수단(151e); 을 더 포함할 수 있다.In addition, the present invention, after extracting the sync flag information (sync flag) for outputting at least one or more phoneme portion (I1 ') analyzed as stress, the accent matching with the sync flag information according to recognition of each sync flag information (sync flag) Speech balloon effect providing means 151e for implementing a hybrid caption effect on at least one phoneme part I1 ′ analyzed into the speech bubble icon I8; It may further include.
또한, 본 발명은, 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 강세로 분석된 적어도 하나 이상의 음소 부분에 대한 하이브리드 자막 효과를 구현할 수 있다.The present invention also analyzes the stress of each word constituting each subtitle sentence unit or the stress of an entire sentence based on the original subtitle information of each frame unit, and divides the syllable part into at least one syllable part in each subtitle sentence unit. For example, the hybrid subtitle effect may be implemented on at least one or more phoneme parts analyzed as stresses.
또한, 본 발명의 하이브리드 자막 효과는, 하이브리드 자막 단독으로 구현되거나, 또는 원본 자막과 함께 구현되거나, 또는 다국적 언어로 발음 변환된 자막과 함께 구현되거나, 또는 번역 자막과 함께 구현될 수 있다.In addition, the hybrid subtitle effect of the present invention may be implemented by the hybrid subtitle alone, or with the original subtitle, or with a subtitle translated into a multilingual language, or may be implemented with a translation subtitle.
또한, 상기의 목적을 달성하기 위해 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법은, 하이브리드 자막 효과 구현 단말(100)의 제어부(150)가 분석된 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분을 출력을 위한 싱크 플래그 정보(sync flag)를 추출하는 제 1 단계; 및 제어부(150)가 자막 문장 단위의 집합으로 이루어진 자막 문장 정보를 동영상 또는 영상과 함께 입출력부(110)로 구현시, 추출된 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분에 대한 하이브리드 자막 효과를 구현하는 제 2 단계; 를 포함할 수 있다.In addition, the hybrid subtitle effect implementation method according to an embodiment of the present invention to achieve the above object, at least one syllable portion in each subtitle sentence unit analyzed by the control unit 150 of the hybrid subtitle effect implementation terminal 100 A first step of extracting sync flag information for outputting at least one or more phoneme parts analyzed as stresses among the divided syllable parts; And when the controller 150 implements the caption sentence information consisting of a set of caption sentence units together with a video or an image as the input /
이때, 상기 제 2 단계의 하이브리드 자막 효과는 폰트 크기/색상 효과, 그리고 동작 효과 중 하나일 수 있다.In this case, the hybrid subtitle effect of the second step may be one of a font size / color effect and an operation effect.
또한, 상기 제 1 단계 이전에, 제어부(150)가 프레임 단위별 원본 자막 영역(T1)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출하는 제 1 준비 과정; 이 더 수행될 수 있다.In addition, before the first step, a first preparatory process of the control unit 150 to extract the caption sentence unit displayed in the original caption area (T1) for each frame unit in the storage unit 140; This can be done further.
또한, 상기 제 1 준비 과정과 상기 제 1 단계 사이에, 제어부(150)가 원본 자막 영역(T1)에서 구현되는 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 분석하는 제 2 준비 과정; 이 더 수행될 수 있다.In addition, between the first preparation process and the first step, the controller 150 stresses each word constituting each subtitle sentence unit based on the original subtitle information for each frame unit implemented in the original subtitle area T1 or A second preparation process of analyzing the stress of the whole sentence; This can be done further.
본 발명의 실시예에 따른 하이브리드 자막 효과 구현 단말 및 방법은, 강세, 발음, 음절 등을 특정하여 표시할 수 있어 언어 학습의 능률을 향상시킬 수 있는 효과를 제공한다. The terminal and method for implementing a hybrid subtitle effect according to an embodiment of the present invention can specify and display stress, pronunciation, syllable, and the like, thereby providing an effect of improving the efficiency of language learning.
또한, 본 발명의 다른 실시예에 따른 하이브리드 자막 효과 구현 단말 및 방법은, 자막의 강세, 음절 부분이 영상의 음성 신호의 싱크에 매칭되어 다양한 동작 효과 구현이 가능하도록 함으로써, 영어 학습 효과를 극대화할 수 있는 효과를 제공한다. In addition, the terminal and method for implementing a hybrid subtitle effect according to another embodiment of the present invention, by emphasizing the subtitles and syllables of the subtitles to match the sync of the audio signal of the image to implement a variety of motion effects, maximize the English learning effect It can be effective.
뿐만 아니라, 본 발명의 다른 실시예에 따른 하이브리드 자막 효과 구현 단말 및 방법은, 원본 자막에 대한 강세 표현뿐만 아니라, 모국어 및 다국적 언어로 발음 변환된 자막을 기준으로도 강세를 표현함으로써, 종래의 기술에 비해 보다 직관적인 화면 구성을 통해 언어 학습의 이해를 향상시킬 수 있는 효과를 제공한다. In addition, the terminal and method for implementing the hybrid subtitle effect according to another embodiment of the present invention, by expressing the accent not only based on the accent for the original subtitle, but also based on the subtitles converted into the native language and the multilingual language, the prior art Compared to this, more intuitive screen composition is provided to improve the understanding of language learning.
도 1은 일반적인 자막 효과가 구현된 유저 인터페이스(User Interface, 이하, 'UI') 화면을 나타내는 도면이다. 1 is a diagram illustrating a user interface (UI) screen in which a general subtitle effect is implemented.
도 2는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 단말(100)을 나타내는 도면이다. 2 is a diagram illustrating a hybrid caption
도 3은 도 2의 하이브리드 자막 효과 구현 단말(100)의 제어부(150) 중 하이브리드 자막 효과 제공 모듈(151)의 구성요소를 나타내는 블록도이다. 3 is a block diagram illustrating the components of the hybrid caption effect providing module 151 of the controller 150 of the hybrid caption
도 4 내지 도 8은 도 2의 하이브리드 자막 효과 구현 단말(100)의 입출력부(110)에 구현된 유저 인터페이스(User Inerface, 이하, 'UI') 화면을 나타내는 도면이다. 4 to 8 are diagrams illustrating a user interface (UI) screen implemented in the input /
도 9는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법의 개념을 나타내는 도면이다. 9 is a diagram illustrating the concept of a hybrid caption effect implementation method according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법에 따른 다양한 하이브리드 자막 효과 구현예를 나타내는 도면이다.10 is a diagram illustrating various hybrid caption effect implementation examples according to a hybrid caption effect implementation method according to an embodiment of the present invention.
도 11은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법에 의해 구현가능한 자막 패턴의 일 실시예를 나타내는 참조도면이다. 11 is a reference diagram illustrating an embodiment of a subtitle pattern that can be implemented by a hybrid subtitle effect implementing method according to an embodiment of the present invention.
도 12는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법을 활용한 언어 학습 방법의 단계별, 수준별 체계적 구성 플랫폼을 위한 구성을 나타내는 참조도표이다. 12 is a reference diagram illustrating a configuration for a systematic configuration platform for each level and level of a language learning method using a hybrid subtitle effect implementation method according to an embodiment of the present invention.
도 13은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법을 나타내는 흐름도이다. 13 is a flowchart illustrating a method of implementing a hybrid subtitle effect according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예의 상세한 설명은 첨부된 도면들을 참조하여 설명할 것이다. 하기에서 본 발명을 설명함에 있어서, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.Hereinafter, the detailed description of the preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, detailed descriptions of well-known functions or configurations will be omitted when it is deemed that they may unnecessarily obscure the subject matter of the present invention.
본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터 또는 신호를 '전송'하는 경우에는 구성요소는 다른 구성요소로 직접 상기 데이터 또는 신호를 전송할 수 있고, 적어도 하나의 또 다른 구성요소를 통하여 데이터 또는 신호를 다른 구성요소로 전송할 수 있음을 의미한다.In the present specification, when one component 'transmits' data or a signal to another component, the component may directly transmit the data or signal to another component, and through at least one other component. This means that data or signals can be transmitted to other components.
도 2는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 단말(100)을 나타내는 도면이다. 2 is a diagram illustrating a hybrid caption
도 2를 참조하면, 하이브리드 자막 효과 구현 단말(100)은 입출력부(110), I/O 인터페이스(120), 송수신부(130), 저장부(140) 및 제어부(150)를 포함하며, 제어부(150)는 하이브리드 자막 효과 제공 모듈(151), 미리 보기 및 화면 크기 제어 모듈(152), 온라인 검색 기반 사전 제공 모듈(153) 및 스피킹 제공 모듈(154)을 포함할 수 있다.Referring to FIG. 2, the hybrid caption
여기서, 하이브리드 자막 효과 제공 모듈(151)은 자막 정보에서 강세로 인식된 음소 또는 문자에 대한 폰트 크기 또는 색상 변화 효과, 동작 표현 효과를 제공하기 위해 형성된다. Here, the hybrid caption effect providing module 151 is formed to provide a font size or color change effect and a motion expression effect on phonemes or characters recognized as strong in the caption information.
미리 보기 및 화면 크기 제어 모듈(152)은 입출력부(110)를 통해 자막 정보에 대한 미리 보기 및 자막 영역(T1, T2, T3)에 대한 화면 크기 설정을 제어하기 위해 형성된다. 여기서 미리 보기 설정은 5초, 30초, 60초 및 동기화로 구분될 수 있으며, 화면 크기 설정은 원본, 전체, 자막 정보 가리기로 구분될 수 있다. The preview and screen size control module 152 is formed through the input /
또한, 본 발명에서는 자막 영역을 원본 자막 영역(T1), 번역 자막 영역(T2), 하이브리드 자막 영역(T3)으로 분리하여 구현되는 것을 도시하였으나, 이에 한정되는 것은 아니며, 하이브리드 자막 영역(T3)이나 원본 자막 영역(T1)만을 구현할 수도 있음은 물론이다.In addition, the present invention is illustrated by separating the subtitle area into an original subtitle area T1, a translation subtitle area T2, and a hybrid subtitle area T3, but the present invention is not limited thereto. Of course, only the original subtitle area T1 may be implemented.
온라인 검색 기반 사전 제공 모듈(153)은 송수신부(130)를 제어하여 네트워크와 연결된 번역 서비스 사이트를 제공하는 번역 서비스 서버로의 액세스(access)를 통해 온라인 사전 검색을 수행할 수 있으며, 문장 또는 단어 단위의 강세 정보를 제공할 수 있다. The online search-based dictionary providing module 153 controls the transceiver 130 to perform an online dictionary search through access to a translation service server that provides a translation service site connected to a network. You can provide accent information for the unit.
스피킹 제공 모듈(154)은 스피킹(speaking) 기능으로, 듣고 말하기/녹음하기 서비스 카테고리를 통해서 하이브리드 자막 효과 구현 단말(100)에 별도로 형성된 마이크로폰을 통해 언어 학습을 위한 음성 녹음 및 분석 과정을 제공하며, 비교듣기/듣고 쓰기 서비스 카테고리를 통해서 터치스크린으로 형성가능한 입출력부(110)로부터 사용자의 문자 입력을 수신하여 저장하고 분석하는 과정을 제공할 수 있다. Speaking providing module 154 is a speech (speaking) function, and provides a voice recording and analysis process for language learning through a microphone formed separately in the hybrid subtitle
도 3은 도 2의 하이브리드 자막 효과 구현 단말(100)의 제어부(150) 중 하이브리드 자막 효과 제공 모듈(151)의 구성요소를 나타내는 블록도이다. 3 is a block diagram illustrating the components of the hybrid caption effect providing module 151 of the controller 150 of the hybrid caption
도 4 내지 도 8은 도 2의 하이브리드 자막 효과 구현 단말(100)의 입출력부(110)에 구현된 유저 인터페이스(User Inerface, 이하, 'UI') 화면을 나타내는 도면이다. 4 to 8 are diagrams illustrating a user interface (UI) screen implemented in the input /
도 3을 참조하면, 하이브리드 자막 효과 제공 모듈(151)은 제 1 강세 및 음절 싱크 수단(151a), 제 2 강세 및 음절 싱크 수단(151b), 제 3 강세 및 음절 싱크 수단(151c), 언어 변환 수단(151d) 및 말풍선 효과 제공 수단(151e)을 구비한다.Referring to FIG. 3, the hybrid subtitle effect providing module 151 may include a first accent and syllable sync means 151a, a second accent and syllable sync means 151b, a third accent and syllable sync means 151c, and language conversion. Means 151d and a speech bubble effect providing means 151e.
이하에서는 도 4 내지 도 8을 참조하여, 도 2의 하이브리드 자막 효과 제공 모듈(151)의 구성을 중심으로, 하이브리드 자막 효과 구현 단말(100)에 대해서 구체적으로 살펴보도록 한다.Hereinafter, the hybrid caption
제 1 강세 및 음절 싱크 수단(151a)은 프레임 단위별 원본 자막 영역(T1)과 번역 자막 영역(T2)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출한다. 이후, 제 1 강세 및 음절 싱크 수단(151a)은 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 저장부(140)의 DB를 통해 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분(I1)에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다.The first accent and syllable syncing unit 151a extracts the caption sentence units represented by the frame-based original caption region T1 and the translation caption region T2 from the storage 140. Subsequently, the first accent and syllable syncing means 151a analyzes the accent of each word constituting each subtitle sentence unit or the accent of the entire sentence based on the original subtitle information for each frame unit through the DB of the storage unit 140. After dividing the syllable part into at least one syllable part in each subtitle sentence unit, sync flag information (sync flag) for output is extracted for at least one or more phoneme parts I1 analyzed as stresses among the divided syllable parts.
제 1 강세 및 음절 싱크 수단(151a)은 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I1)에 대한 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과, 또는 하나의 예시로 음소 부분(I1)을 이루는 각 문자에 대한 물결치는 그래픽 효과를 구현하는 것과 같은 다양한 동작 효과를 구현할 수 있다. The first accent and syllable sync means 151a may be configured to increase or decrease font units of at least one phoneme part I1 analyzed as accent matching with each sync flag information. A variety of motion effects may be implemented, such as a font effect of down), or a waving graphic effect for each character constituting the phoneme part I1 as an example.
이때, 폰트 효과 또는 동작 효과가 구현되는 하이브리드 자막 영역(T3)은 원본 자막 영역(T1)의 상위에 구현할 수도 있고, 원본 자막 영역(T1)을 활용하여 구현할 수 있다. 물론, 원본 자막 영역(T1)의 하위에 구현할 수도 있다.In this case, the hybrid subtitle area T3 in which the font effect or motion effect is implemented may be implemented above the original subtitle area T1 or may be implemented by using the original subtitle area T1. Of course, it may be implemented below the original subtitle area T1.
즉, 도 4a와 같이 제 1 강세 및 음절 싱크 수단(151a)은 원본 자막 영역(T1)에서 각 음절 단위에서 강세로 분석된 음소 부분(I1)에 대해서 폰트의 크기를 기준 크기보다 미리 설정된 배율로 크게 구현할 수 있다. That is, as shown in FIG. 4A, the first accent and syllable syncing means 151a may set the font size to a preset magnification than the reference size for the phoneme portion I1 analyzed as accent in each syllable unit in the original subtitle area T1. It can be largely implemented.
또한, 도 4b와 같이, 제 1 강세 및 음절 싱크 수단(151a)은 도 4a의 원본 자막 영역(T1)으로 출력되는 원본 자막 정보를 한글 발음으로 변환한 뒤, 변환된 한글 발음을 기준으로 한글 발음 중 강세로 분석된 음소 부분(I2)에 대해서 폰트의 크기를 기준 크기보다 미리 설정된 배율로 크게 원본 자막 영역(T1) 또는 하이브리드 자막 영역(T3)으로 구현할 수 있다.In addition, as shown in FIG. 4B, the first accent and syllable syncing means 151a converts original subtitle information output to the original subtitle area T1 of FIG. 4A into Korean pronunciation, and then, based on the converted Korean pronunciation, The font size of the phoneme portion I2 that is analyzed as strong may be embodied as the original subtitle area T1 or the hybrid subtitle area T3 at a preset magnification than the reference size.
또한, 본 발명의 다른 실시예로 폰트의 크기 변화뿐만 아니라, 폰트의 색상 변화로 강세를 표현할 수 있다. 그리고 폰트의 크기와 색상 변화로 강세뿐만 아니라, 발음(발음을 구성하는 음소 부분) 및 음절에 대한 표시를 구분하여 구현할 수 있다. In addition, according to another embodiment of the present invention, not only the change in the font size but also the change in the color of the font may express the stress. The font size and color change can be embodied by distinguishing not only the stress but also the pronunciation (phoneme part constituting the pronunciation) and the display of the syllable.
제 2 강세 및 음절 싱크 수단(151b)은 제 1 강세 및 음절 싱크 수단(151a)과 동일한 방식으로, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다.The second accent and syllable sync means 151b divides the syllable parts into at least one syllable part in each subtitle sentence unit in the same manner as the first accent and syllable sync means 151a, and then analyzes the accents among the divided syllable parts. Sync flag information (sync flag) for outputting the extracted at least one phoneme part is extracted.
제 2 강세 및 음절 싱크 수단(151b)은 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I3)에 대해서 추출한 뒤, 추출된 음소 부분(I3)만을 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과를 도 5a와 같이 구현할 수 있다. 이때도 폰트 효과가 구현되는 하이브리드 자막 영역(T3)은 원본 자막 영역(T1)의 상위에 구현할 수도 있고, 원본 자막 영역(T1)에 구현되는 원본 자막을 대체하여 구현할 수도 있다. The second accent and syllable sync means 151b extracts at least one or more phoneme portions I3 analyzed as accents matching the sync flag information, and then extracts the extracted phoneme portions I3. A font effect of only up or down of a font unit may be implemented as shown in FIG. 5A. In this case, the hybrid subtitle area T3 in which the font effect is implemented may be embodied above the original subtitle area T1 or may replace the original subtitle area embodied in the original subtitle area T1.
또한, 도 5b와 같이, 제 2 강세 및 음절 싱크 수단(151b)은 도 5a의 원본 자막 영역(T1)으로 출력되는 원본 자막을 한글 발음으로 변환한 뒤, 변환된 한글 발음을 기준으로 한글 발음 중 강세로 분석된 음소 부분(I4)에 대해서만 추출한 뒤, 추출된 음소 부분(I4)의 폰트의 크기를 기준 크기보다 미리 설정된 배율로 크게 원본 자막 영역(T1) 또는 하이브리드 자막 영역(T3) 내에 구현할 수 있다.In addition, as shown in FIG. 5B, the second accent and syllable syncing unit 151b converts the original subtitle output to the original subtitle region T1 of FIG. 5A into Korean pronunciation, and then, based on the converted Korean pronunciation, After extracting only the phoneme portion I4 analyzed as accentuated, the font size of the extracted phoneme portion I4 can be embodied in the original subtitle area T1 or the hybrid subtitle area T3 at a preset magnification than the reference size. have.
또한, 본 발명의 다른 실시예로 폰트의 크기 변화뿐만 아니라, 폰트의 색상 변화로 음소 부분(I3, I4)에 대한 강세를 표현할 수 있다. In addition, according to another embodiment of the present invention, not only the change in the size of the font but also the change in the color of the font may express the stress on the phoneme portions I3 and I4.
제 3 강세 및 음절 싱크 수단(151c)은 제 1 강세 및 음절 싱크 수단(151a)과 동일한 방식으로, 강세로 분석된 적어도 하나 이상의 음소 부분(I1, I2)에 대한 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과를 동일하게 구현할 수 있다.The third accented and syllable syncing means 151c is the same manner as the first accented and syllable syncing means 151a, in a font unit up to at least one or more phoneme portions I1 and I2 analyzed as accentuated or The same font effect of down can be implemented.
이와 함께, 제 3 강세 및 음절 싱크 수단(151c)은 추출된 음소 부분(I1, I2)에 대한 싱크 플래그 정보(sync flag)를 인식시, 동시에 다양한 동작 부호(I5, I5')를 도 6과 같이 음소의 첫 문자의 상위에 표시할 수 있다. In addition, when the third accent and syllable sync means 151c recognizes sync flag information about the extracted phoneme portions I1 and I2, the third accent and syllable sync means 151c simultaneously displays various operation codes I5 and I5 '. Likewise, it can be displayed above the first character of the phoneme.
한편, 제 3 강세 및 음절 싱크 수단(151c)은 추출된 음소 부분(I1, I2)뿐만 아니라, 전체 문장의 강세가 시작되는 음절, 리듬 부분의 시작을 알리는 싱크 플래그 정보(sync flag)를 인식시, 동일하게 다양한 동작 부호(I5, I5')를 도 6과 같이 음소의 첫 문자의 상위에 표시할 수 있다. On the other hand, the third stress and syllable sync means 151c recognizes not only the extracted phoneme portions I1 and I2 but also sync flag information that indicates the beginning of the syllable and rhythm portions in which the whole sentence is stressed. Likewise, various operation codes I5 and I5 'may be displayed above the first character of the phoneme as shown in FIG. 6.
언어 변환 수단(151d)은 제 1 강세 및 음절 싱크 수단(151a)과 동일한 방식으로, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다.The language converting means 151d divides the syllable parts into at least one syllable part in each subtitle sentence unit in the same manner as the first accent and syllable sync means 151a, and then at least one or more of the divided syllable parts are analyzed as stresses. Extract sync flag information for the phoneme part.
또한, 언어 변환 수단(151d)은 원본 자막 영역(T1)에 구현되는 원본 자막 정보를 저장부(140)로부터 추출한 뒤, 자체에 구비된 다국적 언어 발음 변환 모듈을 통해 다른 외국어 또는 다른 외국어 발음(참조: 도 4~도 6은 한국어, 도 7은 일본어 및 중국어)로 변환한다.Further, the language converting means 151d extracts the original caption information implemented in the original caption area T1 from the storage 140 and then pronounces another foreign language or another foreign language through its multinational language pronunciation conversion module. 4 to 6 are Korean, and FIG. 7 is Japanese and Chinese).
본 발명에서는 영어로 된 원본 자막을 영어, 한국어, 일본어, 중국어 발음으로 변환한 것만을 도시하였으나, 이에 국한되는 것이 아님은 물론이며, 영어 이외의 언어를 모국어로 사용하는 모든 다국적 언어에 대해 적용가능하다.In the present invention, only the translation of the original subtitles in English to English, Korean, Japanese, Chinese pronunciation, but not limited to this, of course, it is applicable to all multinational languages that use a language other than English as the mother tongue. Do.
또한, 언어 변환 수단(151d)은 원본 자막 정보와 관련하여 송수신부(130)를 제어하여 네트워크와 연결된 번역 서비스 사이트로의 액세스(access)를 통해 번역 서비스된 자막 정보를 수신받을 수 있다.In addition, the language converting means 151d may control the transceiver 130 to receive the translation service subtitle information through access to a translation service site connected to a network by controlling the transceiver 130 in relation to the original subtitle information.
이후, 언어 변환 수단(151d)은 프레임 단위별 다국적 언어로 발음 변환된 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 저장부(140)의 DB를 통해 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분(I1)에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다.Subsequently, the language converting means 151d analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the subtitle information translated into the multilingual language per frame through the DB of the storage unit 140. After dividing the syllable parts into at least one syllable part in each subtitle sentence unit, sync flag information (sync flag) for output is extracted for at least one or more phoneme parts I1 analyzed as stresses among the divided syllable parts. .
언어 변환 수단(151d)은 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I6, I7)에 대한 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과, 또는 하나의 예시로 음소 부분(I6, I7)을 이루는 각 문자에 대한 물결치는 그래픽 효과를 구현하는 것과 같은 다양한 동작 효과를 구현할 수 있다. The language converting means 151d is configured to up or down the font unit for at least one or more phoneme portions I6 and I7 analyzed according to the sync flag recognition. Various motion effects may be implemented, such as a font effect or a wave graphic effect for each character constituting the phoneme portions I6 and I7 as an example.
한편, 언어 변환 수단(151d)은 추출된 음소 부분(I6, I7)뿐만 아니라, 전체 문장의 강세가 시작되는 음절, 리듬 부분의 시작을 알리는 싱크 플래그 정보(sync flag)를 인식시, 동일하게 다양한 동작 부호(I6, I7)를 도 7과 같이 음소의 첫 문자의 상위에 표시할 수 있다. On the other hand, the language converting means 151d recognizes not only the extracted phoneme portions I6 and I7 but also sync flag information (sync flag) indicating the beginning of a syllable and a rhythm portion in which the whole sentence starts to be stressed. The operation codes I6 and I7 may be displayed above the first character of the phoneme as shown in FIG. 7.
비록, 도 4 내지 도 7에는 하이브리드 자막과 원본 자막 및 번역 자막이 모두 순차적으로 영상콘텐츠에 구현된 상태만을 도시하였으나, 이에 국한되는 것이 아님은 물론이며, 하이브리드 자막 단독으로 구현되거나, 하이브리드 자막이 원본 자막과 함께 구현되거나 또는 다국적 언어로 발음 변환된 자막과 함께 구현되거나 또는 번역 자막과 함께 구현될 수 있다. 또한, 폰트나 강세 등이 표현된 원본 자막 만이 영상콘텐츠에 구현되거나, 하이브리드 자막과 폰트나 강세 등이 표현된 원본 자막이 동시에 또는 순차적으로 구현될 수도 있다.Although FIG. 4 to FIG. 7 show only the state in which the hybrid subtitles, the original subtitles, and the translated subtitles are all sequentially implemented in the video content, the present invention is not limited thereto. Of course, the hybrid subtitles alone or the hybrid subtitles may be implemented. The subtitles may be implemented with subtitles, or may be implemented with subtitles translated into multilingual languages or with subtitles translated. In addition, only original subtitles in which fonts or accents are expressed may be implemented in the image content, or hybrid subtitles and original subtitles in which fonts or accents are expressed may be simultaneously or sequentially implemented.
말풍선 효과 제공 수단(151e)은 프레임 단위별 원본 자막 영역(T1)과 번역 자막 영역(T2)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출한다. 이후, 말풍선 효과 제공 수단(151e)은 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 저장부(140)의 DB를 통해 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분(I1')에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다.The speech balloon effect providing unit 151e extracts the caption sentence unit represented by the frame-based original caption region T1 and the translation caption region T2 from the storage unit 140. Thereafter, the speech bubble effect providing unit 151e analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence on the basis of the original subtitle information for each frame unit through the DB of the storage unit 140, and each subtitle. After dividing the syllable parts into at least one syllable unit, the sync flag information for outputting the at least one phoneme part I1 ′ analyzed as stress among the divided syllable parts is extracted.
말풍선 효과 제공 수단(151e)은 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분(I1')에 대한 폰트 단위의 업(up) 또는 다운(down)하는 폰트 효과, 또는 하나의 예시로 음소 부분(I1)을 이루는 각 문자에 대한 물결치는 그래픽 효과를 구현하는 것과 같은 다양한 동작 효과를 구현하는 데, 이 경우, 말풍선 아이콘(I8)의 내부에 구현할 수 있다. The speech bubble effect providing means 151e may be configured to increase or decrease the font unit for at least one or more phoneme portions I1 ′ analyzed according to the sync flag information. To implement a variety of motion effects, such as to implement a font effect, or a waving graphic effect for each character constituting the phoneme part (I1) as an example, in this case, can be implemented inside the speech bubble icon (I8) have.
즉, 도 8a와 같이 말풍선 효과 제공 수단(151e)은 원본 자막 영역(T1)과 번역 자막 영역(T2)은 구현하지 않은 상태로, 말풍선 아이콘(I8)에 원본 자막 정보에서 폰트 효과 또는 동작 효과가 구현된 음소 부분(I1')에 대한 구현을 수행할 수 있다.That is, as shown in FIG. 8A, the speech bubble effect providing unit 151e does not implement the original subtitle area T1 and the translation subtitle area T2, and the balloon icon I8 has a font effect or motion effect in the original subtitle information. Implementation of the implemented phoneme portion I1 ′ may be performed.
또한, 도 8b와 같이, 말풍선 효과 제공 수단(151e)은 도 8a의 말풍선 아이콘(I8) 내의 폰트 효과 또는 동작 효과 구현을 위한 원본 자막 정보를 한글 발음으로 변환한 뒤, 변환된 한글 발음을 기준으로 한글 발음 중 강세로 분석된 음소 부분(I2')에 대해서 폰트의 크기를 기준 크기보다 미리 설정된 배율로 말풍선 아이콘(I8)에 구현할 수 있다. In addition, as illustrated in FIG. 8B, the speech balloon effect providing unit 151e converts original subtitle information for implementing font effects or motion effects in the speech balloon icon I8 of FIG. 8A into Korean pronunciation and then based on the converted Korean pronunciation. The font size of the phoneme portion I2 ′ analyzed strongly in Korean pronunciation may be embodied in the speech bubble icon I8 at a preset magnification than the reference size.
이와 같이, 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 단말은, 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 분석하고, 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 강세로 분석된 적어도 하나 이상의 음소 부분에 대한 하이브리드 자막 효과를 구현하는 것을 특징으로 한다.As described above, the terminal for implementing the hybrid caption effect according to the embodiment of the present invention analyzes the stress of each word constituting each caption sentence unit or the stress of the whole sentence based on the original caption information of each frame unit, and analyzes the stress of each subtitle sentence unit. After dividing the syllable part into at least one or more, characterized in that to implement a hybrid subtitle effect on at least one or more phoneme parts analyzed as stress.
또한, 본 발명의 다른 실시예로 폰트의 크기 변화뿐만 아니라, 폰트의 색상 변화로 강세를 표현할 수 있다. 그리고 폰트의 크기와 색상 변화로 강세뿐만 아니라, 발음(발음을 구성하는 음소 부분) 및 음절에 대한 표시를 구분하여 구현할 수 있다. In addition, according to another embodiment of the present invention, not only the change in the font size but also the change in the color of the font may express the stress. The font size and color change can be embodied by distinguishing not only the stress but also the pronunciation (phoneme part constituting the pronunciation) and the display of the syllable.
또한, 본 발명의 또 다른 실시예로 폰트의 크기, 색상 변화로 강세뿐만 아니라, 발음 및 음절에 대한 표시가 구분되어 표시된 하이브리드 자막이나, 또는 폰트나 강세 등이 표현된 원본 자막이 영상콘텐츠 속 해당 대사를 하고 있는 캐릭터의 입으로부터 물결형태로 문장이 나오는 식으로 구현할 수도 있음은 물론이다. In addition, according to another embodiment of the present invention, not only the accent due to the change in the size and color of the font, but also the hybrid subtitles in which the display of the pronunciation and the syllables are divided, or the original subtitles in which the font or accent is expressed may correspond to the video content. Of course, it can also be implemented in a sentence form in a wave form from the mouth of the character who is speaking.
도 9는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법의 개념을 나타내는 도면이다. 도 10은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법에 따른 다양한 하이브리드 자막 효과 구현예를 나타내는 도면이다.9 is a diagram illustrating the concept of a hybrid caption effect implementation method according to an embodiment of the present invention. 10 is a diagram illustrating various hybrid caption effect implementation examples according to a hybrid caption effect implementation method according to an embodiment of the present invention.
도 10a를 참조하면, 하이브리드 자막 효과 제공 모듈(151)은 원본 자막(T1)을 기준으로 각 자막 문장 단위를 구성하는 각 단어의 음소 단위에 해당하는 강세 정보를 저장부(140)의 DB 분석 또는 송수신부(130)를 제어하여 네트워크와 연결된 강세 분석 서버에 대한 질의를 통해 획득한다. Referring to FIG. 10A, the hybrid subtitle effect providing module 151 may analyze the DB of the storage 140 or the accent information corresponding to the phoneme unit of each word constituting each subtitle sentence unit based on the original subtitle T1. The transceiver 130 is controlled to obtain the query through the stress analysis server connected to the network.
이후, 하이브리드 자막 효과 제공 모듈(151)은 강세 정보에서 제 1 강세 및 제 2 강세 정보를 추출한 뒤, 제 1 강세 정보에 해당하는 문자에 대해서는 미리 설정된 기준 폰트 크기보다 큰 중간 폰트 크기로 설정하며, 제 2 강세 정보에 해당하는 문자에 대해서는 중간 폰트 크기보다 크게 설정된 큰 폰트로 설정하여, 도 10a와 같이 하이브리드 자막 영역(T3) 또는 원본 자막 영역(T1)에 구현함으로써, 폰트 크기의 차별화를 통한 자막 표현을 수행한다. Thereafter, the hybrid subtitle effect providing module 151 extracts the first accent and the second accent information from the accent information, and sets the intermediate font size larger than the preset reference font size for the characters corresponding to the first accent information. Subtitles through differentiation of the font size are set for a character corresponding to the second accent information by a large font set larger than the intermediate font size and implemented in the hybrid subtitle area T3 or the original subtitle area T1 as shown in FIG. 10A. Perform the expression.
다음으로, 하이브리드 자막 효과 제공 모듈(151)은 획득한 강세 정보에서 제 1 내지 제 n 강세 정보(n은 2 이상의 자연수)로 구분된 각 단어 또는 문장에 대해서 하이브리드 자막 영역(T3) 또는 원본 자막 영역(T1)에 구현시 추가 효과로 도 10b와 같이 각 강세 정보가 시작될 때, 폰트의 크기를 변화시킨 뒤 폰트의 크기를 원 상태의 크기로 회복하는 UI 화면을 구현할 수 있다. 이때, 하이브리드 자막 효과 제공 모듈(151)은 강세로 분석된 적어도 하나 이상의 문자 출력을 위한 싱크 플래그 정보(sync flag)를 저장부(140)의 원본 자막 정보를 통해 추출할 수 있다. Next, the hybrid subtitle effect providing module 151 performs hybrid subtitle area T3 or original subtitle area for each word or sentence classified into first to nth accent information (n is a natural number of 2 or more) from the obtained accent information. As an additional effect when implementing (T1), as shown in FIG. 10B, when each accent information starts, a UI screen for restoring the font size to its original size after changing the font size may be implemented. In this case, the hybrid subtitle effect providing module 151 may extract sync flag information for outputting at least one or more characters which are analyzed as stresses through the original subtitle information of the storage 140.
다음으로, 하이브리드 자막 효과 제공 모듈(151)은 획득한 강세 정보에서 제 1 내지 제 n 강세 정보(n은 2 이상의 자연수)로 구분된 각 단어 또는 문장에 대해서 하이브리드 자막 영역(T3) 또는 원본 자막 영역(T1)에 구현시 다른 추가 효과로 도 10c와 같이 각 강세 정보가 시작될 때, 폰트의 크기를 변화시킨 뒤 폰트의 크기를 원 상태의 크기로 회복하지 않고 유지하는 UI 화면을 구현할 수 있다. 이때도, 하이브리드 자막 효과 제공 모듈(151)은 강세로 분석된 적어도 하나 이상의 문자 출력을 위한 싱크 플래그 정보(sync flag)를 저장부(140)의 원본 자막 정보를 통해 추출할 수 있다. Next, the hybrid subtitle effect providing module 151 performs hybrid subtitle area T3 or original subtitle area for each word or sentence classified into first to nth accent information (n is a natural number of 2 or more) from the obtained accent information. As another additional effect when implemented in (T1), when each accented information is started as shown in FIG. 10C, a UI screen for changing the size of the font and maintaining the size of the font without returning to the original size may be implemented. In this case, the hybrid subtitle effect providing module 151 may extract sync flag information (sync flag) for outputting at least one or more characters which are analyzed as stresses through the original subtitle information of the storage 140.
다음으로, 하이브리드 자막 효과 제공 모듈(151)은 도 10b 또는 도 10c와 같은 UI 화면을 구현함과 동시에, 도 10a에서 상술한 제 1 내지 제 n 강세 정보 중 강도 정보로 가장 큰 강도 정보에 속하는 강세 정보에 대해서는 다양한 동작 아이콘을 문자와 함께 상위에 표시할 수 있다. Next, the hybrid subtitle effect providing module 151 implements the UI screen as shown in FIG. 10B or 10C and at the same time, the accent belongs to the greatest intensity information as the intensity information among the first to n th stress information described above with reference to FIG. 10A. For the information, various operation icons may be displayed on the upper side with letters.
도 11은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법에 의해 구현가능한 7가지 자막 패턴을 나타내는 참조도면이다. 도 12는 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법을 활용한 언어 학습 방법의 단계별, 수준별 체계적 구성 플랫폼을 위한 구성을 나타내는 참조도표이다. 11 is a reference diagram illustrating seven subtitle patterns that may be implemented by a hybrid subtitle effect implementing method according to an embodiment of the present invention. 12 is a reference diagram illustrating a configuration for a systematic configuration platform for each level and level of a language learning method using a hybrid subtitle effect implementation method according to an embodiment of the present invention.
도 13은 본 발명의 실시예에 따른 하이브리드 자막 효과 구현 방법을 나타내는 흐름도이다. 13 is a flowchart illustrating a method of implementing a hybrid subtitle effect according to an embodiment of the present invention.
도 13을 참조하면, 하이브리드 자막 효과 구현 단말(100)의 제어부(150)는 프레임 단위별 원본 자막 영역(T1)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출한다(S11). 물론, 번역 자막 영역(T2)으로 표시되는 자막 문장 단위를 저장부(140)에서 추출할 수도 있다.Referring to FIG. 13, the controller 150 of the hybrid caption
단계(S11) 이후, 제어부(150)는 원본 자막 영역(T1)에서 구현되는 프레임 단위별 원본 자막 정보를 기준으로 각 자막 문장 단위를 구성하는 각 단어의 강세 또는 전체 문장의 강세를 분석한다(S12).After the step S11, the controller 150 analyzes the stress of each word constituting each subtitle sentence unit or the stress of the entire sentence based on the original subtitle information for each frame unit implemented in the original subtitle area T1 (S12). ).
단계(S12) 이후, 제어부(150)는 단계(S12)에서 분석된 각 자막 문장 단위에서 음절 부분을 적어도 하나 이상으로 구분한 뒤, 구분된 음절 부분 중 강세로 분석된 적어도 하나 이상의 음소 부분에 대해 출력을 위한 싱크 플래그 정보(sync flag)를 추출한다(S13).After step S12, the controller 150 divides the syllable parts into at least one syllable part in each subtitle sentence unit analyzed in step S12, and then, for at least one phoneme part analyzed as stress among the divided syllable parts. Sync flag information (sync flag) for output is extracted (S13).
단계(S13) 이후, 제어부(150)는 자막 문장 단위의 집합으로 이루어진 자막 문장 정보를 동영상 또는 영상콘텐츠와 함께 입출력부(110)로 구현시, 단계(S13)에서 추출된 각 싱크 플래그 정보(sync flag) 인식에 따라 그와 매칭되는 강세로 분석된 적어도 하나 이상의 음소 부분에 대한 폰트 크기/색상 효과, 동작 효과를 구현한다(S14).After the step S13, when the control unit 150 implements the caption sentence information consisting of a set of caption sentence units together with the video or the video content as the input /
또한, 본 발명에 따른 단말은 인터넷과 연동되어 실시간으로 재생되는 음성이나, 텍스트, 영상콘텐츠, 애니메이션 등에 폰트와 강세가 표현된 자막을 부여할 수 있게 된다. In addition, the terminal according to the present invention can give a subtitle in which fonts and accents are expressed in voice, text, image content, and animation, which are reproduced in real time in connection with the Internet.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다.The invention can also be embodied as computer readable code on a computer readable recording medium. Computer-readable recording media include all kinds of recording devices that store data that can be read by a computer system.
컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, optical data storage devices, and the like, which are also implemented in the form of carrier waves (eg, transmission over the Internet). It also includes.
또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술 분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. And functional programs, codes and code segments for implementing the present invention can be easily inferred by programmers in the art to which the present invention belongs.
이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, the present specification and drawings have been described with respect to preferred embodiments of the present invention, although specific terms are used, it is only used in a general sense to easily explain the technical contents of the present invention and to help the understanding of the present invention. It is not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.
Claims (19)
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| KR10-2016-0134664 | 2016-10-17 | ||
| KR1020160134664A KR101990019B1 (en) | 2016-10-17 | 2016-10-17 | Terminal for performing hybrid caption effect, and method thereby |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| WO2018074658A1 true WO2018074658A1 (en) | 2018-04-26 |
Family
ID=62019202
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| PCT/KR2016/014667 Ceased WO2018074658A1 (en) | 2016-10-17 | 2016-12-14 | Terminal and method for implementing hybrid subtitle effect |
Country Status (2)
| Country | Link |
|---|---|
| KR (1) | KR101990019B1 (en) |
| WO (1) | WO2018074658A1 (en) |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109600680A (en) * | 2018-08-15 | 2019-04-09 | 罗勇 | Repeat scene image group technology |
Families Citing this family (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US20210158723A1 (en) * | 2018-06-17 | 2021-05-27 | Langa Ltd. | Method and System for Teaching Language via Multimedia Content |
| KR102618311B1 (en) * | 2021-08-05 | 2023-12-27 | 박명재 | An apparatus and method for providing conversational english lecturing contents |
| KR102814039B1 (en) * | 2022-08-29 | 2025-05-27 | 방일성 | Apparatus for producing pop-up membrane that expresses the strength and weakness of the voice as visual effect and method thereof |
Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4034025B2 (en) * | 1999-03-22 | 2008-01-16 | エルジー エレクトロニクス インコーポレイティド | Video equipment with learning function |
| KR20120140116A (en) * | 2011-06-20 | 2012-12-28 | 김재용 | The program of english |
| KR101281621B1 (en) * | 2010-08-26 | 2013-07-03 | 손호진 | Method for teaching language using subtitles explanation in video clip |
| US20140278370A1 (en) * | 2013-03-15 | 2014-09-18 | Cyberlink Corp. | Systems and Methods for Customizing Text in Media Content |
| KR101460447B1 (en) * | 2013-07-25 | 2014-11-12 | 포항공과대학교 산학협력단 | Apparatus of learning intonations for learning foreign language and method thereof |
Family Cites Families (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| GB8929152D0 (en) * | 1989-12-22 | 1990-02-28 | Gen Electric | A digital augmentation system for actv-ii |
| KR20000021578A (en) * | 1998-09-30 | 2000-04-25 | 전주범 | Method for controlling caption display on tv |
| KR20120090147A (en) * | 2011-01-14 | 2012-08-17 | 박정원 | English studying apparatus based in meaning cluster |
| KR20160001332A (en) * | 2014-06-27 | 2016-01-06 | 유혜경 | English connected speech learning system and method thereof |
-
2016
- 2016-10-17 KR KR1020160134664A patent/KR101990019B1/en not_active Expired - Fee Related
- 2016-12-14 WO PCT/KR2016/014667 patent/WO2018074658A1/en not_active Ceased
Patent Citations (5)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP4034025B2 (en) * | 1999-03-22 | 2008-01-16 | エルジー エレクトロニクス インコーポレイティド | Video equipment with learning function |
| KR101281621B1 (en) * | 2010-08-26 | 2013-07-03 | 손호진 | Method for teaching language using subtitles explanation in video clip |
| KR20120140116A (en) * | 2011-06-20 | 2012-12-28 | 김재용 | The program of english |
| US20140278370A1 (en) * | 2013-03-15 | 2014-09-18 | Cyberlink Corp. | Systems and Methods for Customizing Text in Media Content |
| KR101460447B1 (en) * | 2013-07-25 | 2014-11-12 | 포항공과대학교 산학협력단 | Apparatus of learning intonations for learning foreign language and method thereof |
Cited By (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN109600680A (en) * | 2018-08-15 | 2019-04-09 | 罗勇 | Repeat scene image group technology |
Also Published As
| Publication number | Publication date |
|---|---|
| KR101990019B1 (en) | 2019-06-18 |
| KR20180042058A (en) | 2018-04-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR101990023B1 (en) | Method for chunk-unit separation rule and display automated key word to develop foreign language studying, and system thereof | |
| US6377925B1 (en) | Electronic translator for assisting communications | |
| US5875427A (en) | Voice-generating/document making apparatus voice-generating/document making method and computer-readable medium for storing therein a program having a computer execute voice-generating/document making sequence | |
| JP5564459B2 (en) | Method and system for adding translation to a video conference | |
| WO2020145439A1 (en) | Emotion information-based voice synthesis method and device | |
| CN107657947A (en) | Method of speech processing and its device based on artificial intelligence | |
| WO2012161359A1 (en) | Method and device for user interface | |
| CN114464180B (en) | Intelligent device and intelligent voice interaction method | |
| US8606560B2 (en) | Automatic simultaneous interpertation system | |
| WO2018074658A1 (en) | Terminal and method for implementing hybrid subtitle effect | |
| WO2013077527A1 (en) | Multilingual speech system and method of character | |
| WO2011152575A1 (en) | Apparatus and method for generating vocal organ animation | |
| WO2020091431A1 (en) | Subtitle generation system using graphic object | |
| WO2021033865A1 (en) | Method and apparatus for learning written korean | |
| WO2018198807A1 (en) | Translation device | |
| WO2016137071A1 (en) | Method, device, and computer-readable recording medium for improving set of at least one semantic unit using voice | |
| CN120017926B (en) | Slide video generation method, slide video generation device, slide video generation equipment and storage medium | |
| WO2022169208A1 (en) | Voice visualization system for english learning, and method therefor | |
| KR101932340B1 (en) | English Teaching and Learning through the Application of Native Speakers Video Subtitles Recognition and Interpretation Systems | |
| CN109102723A (en) | A kind of interactive instructional system based on alphabetical Chinese and realize its method | |
| JP6926175B2 (en) | Display support devices, methods and programs | |
| WO2022030732A1 (en) | Apparatus and method for preprocessing text | |
| JP6676093B2 (en) | Interlingual communication support device and system | |
| JP2005517215A (en) | Method and apparatus for language understanding | |
| JP2017167805A (en) | Display support apparatus, method and program |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| 121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16919146 Country of ref document: EP Kind code of ref document: A1 |
|
| NENP | Non-entry into the national phase |
Ref country code: DE |
|
| 32PN | Ep: public notification in the ep bulletin as address of the adressee cannot be established |
Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205 DATED 13/08/2019) |
|
| 122 | Ep: pct application non-entry in european phase |
Ref document number: 16919146 Country of ref document: EP Kind code of ref document: A1 |