KR20140087953A - Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit - Google Patents
Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit Download PDFInfo
- Publication number
- KR20140087953A KR20140087953A KR1020130000019A KR20130000019A KR20140087953A KR 20140087953 A KR20140087953 A KR 20140087953A KR 1020130000019 A KR1020130000019 A KR 1020130000019A KR 20130000019 A KR20130000019 A KR 20130000019A KR 20140087953 A KR20140087953 A KR 20140087953A
- Authority
- KR
- South Korea
- Prior art keywords
- sentence
- unit
- learner
- pronunciation
- native
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Tourism & Hospitality (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Entrepreneurship & Innovation (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 관한 것으로서 문장 데이터, 문장을 연상시킬 수 있는 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터가 저장된 저장부; 문장 선택 및 문장 입력을 위한 입력부; 학습자가 선택한 문장의 학습이 시작되면 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시하고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터를 표시하는 표시부; 학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부; 상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 발음 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부; 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부; 상기 카메라부로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 상기 영상 처리부를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공한다.The present invention relates to a language teaching learning apparatus and method using pronunciation units of a meaning unit and a native speaker, and includes a storage unit storing sentence data, image data capable of reminding a sentence, pronunciations of native speakers, and sound waveform data. An input unit for selecting sentences and inputting sentences; A display unit for displaying sentences sequentially in a semantic unit by dividing sentences into semantic units when learning of a sentence selected by a learner starts, and displaying image data and sentence data related to the displayed sentences; An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and for comparing and analyzing the waveform of the native pronunciation voice with respect to the inputted voice; A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence; An image processing unit for normalizing a change in facial muscle input from the camera unit, a shape of the lip, and a focus and size of a position image of the tooth and the tongue; The linguistic model, and the positional image of the tooth and the tongue, and the sentence pronunciations of the native speaker stored in the storage unit, when the sentence pronunciation of the learner is normalized through the image processing unit, And a control section for displaying the waveform processed by the speech waveform processing section and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% And a language learning learning apparatus and method using pronunciation units of native speakers and pronunciation data of native speakers.
Description
본 발명은 문장의 의미단위와 해당 문장을 연상 시킬 수 있는 이미지 데이터 및 원어민의 "의미단위로 형성된 문장 발음 시 얼굴 정면과 측면 얼굴 영상, 의미단위로 형성된 문장 발음 시 음성, 의미단위로 형성된 문장 발음에 따른 음성 파형, 의미단위로 형성된 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 모양”(이하 “발음 데이터”라고 함)을 이용한 언어교육 학습장치 및 방법에 관한 것으로, 보다 상세하게는 학습하고자 하는 문장을 의미단위로 나누어 듣기, 말하기, 읽기, 쓰기 학습을 할 수 있도록 순차적으로 제공하고, 해당 문장과 관련된 “액센트, 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻”(이하 “문장 데이터”라고 함)이 표시되고, 해당 문장을 연상시킬 수 있는 “이미지 또는 애니메이션 또는 영상”(이하 “이미지 데이터”라고 함)을 함께 제공하며, 표시된 문장에 대한 원어민의 발음 시 음성과 영상이 재생되도록 하고, 학습자의 문장 발음에 따른 음성과 영상을 입력받아 원어민 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 및 학습자 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 화면을 표시하고, 음성 파형 비교 화면을 표시하여 효과적인 언어교육 학습을 하기 위한, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 관한 것이다.The present invention relates to a method and apparatus for recognizing the meaning of a sentence, image data capable of associating the sentence with the sentence, and a sentence formed by the meaning unit of the native language, (Hereinafter, referred to as " pronunciation data "), and more particularly, to a device and method for teaching and learning language using a voice waveform according to a phoneme, a facial muscle change, a shape of a lip and a position of a tooth and a tongue , Which is divided into semantic units for learning, speaking, reading, and writing, and is interpreted as a language of the country that learns about accents, pronunciation symbols, and sentences related to the sentence (Hereinafter referred to as " sentence data ") is displayed, and an " image or animation " (Hereinafter, referred to as " image data "), and the voice and the image are reproduced in the pronunciation of the native language of the displayed sentence, and the voice and the image according to the pronunciation of the sentence of the learner are input, And the shape of the lips and the position of the teeth and tongue Playing and learning of the learner's face Muscle changes and shape of the lip and position of the tooth and tongue Display the playback screen and show the voice waveform comparison screen, And a method and apparatus for learning a language using pronunciation data of a native speaker.
어학을 효율적으로 학습하기 위한 다양한 프로그램들과 제품들이 개발되고 있는데, 일반적으로 카세트 플레이어나 MP3, PMP 등과 같은 휴대용 단말기를 이용한 학습방법이 주로 이용되고 있다.
Various programs and products for learning language efficiently have been developed, and learning methods using portable terminals such as cassette players, MP3s, and PMPs are generally used.
일예로 영어교육이 있는데, 영어교육은 듣기, 말하기, 쓰기 등으로 나누어 볼 수 있다. 따라서 영어교육이 효과적으로 이루어지기 위해서는 상기의 듣기, 말하기, 쓰기를 모두 효과적으로 학습시켜야 할 필요가 있다.
One example is English education, which can be divided into listening, speaking and writing. Therefore, in order for English education to be effective, it is necessary to study all of the above listening, speaking and writing effectively.
종래의 영어교육방법은 상황에 따른 대화를 단순한 문장으로 연결시켜 학습자에게 출력시키게 됨으로써, 각 문장을 구성하고 있는 의미단위(한 가지 뜻을 구성하는 단어의 집합)를 인식하지 못하게 된다. 따라서 학습자는 문장전체를 통째로 암기할 필요가 있게 되어, 상황에 따른 문장의 구현이 불가능하게 되는 단점이 있다.
In the conventional English teaching method, the conversation according to the situation is connected to a simple sentence and outputted to the learner, so that the meaning unit (a group of words constituting one meaning) constituting each sentence can not be recognized. Therefore, the learner needs to memorize the entire sentence, which makes it impossible to implement the sentence according to the situation.
그리고, 상황에 따른 대화를 텍스트 문장으로만 나열하여, 상황에 대한 현장감이 떨어지는 단점이 있다.
In addition, there is a disadvantage in that the presence of the situation is deteriorated by listing the conversation according to the situation only in a text sentence.
마지막으로, 문장을 발음하는 원어민의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치, 그 발음을 따라하는 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 보지 못하여 언어학습임에도 불구하고, 언어 발음을 정확히 구사할 수 없는 단점이 있다.Lastly, it is difficult to see the position of the lips, the position of the teeth and the tongue, the learner 's facial muscle changes, the shape of the lips, and the location of the teeth and tongue, And the pronunciation of the language can not be accurately pronounced.
따라서, 상기한 문제점을 해결하기 위한 본 발명의 목적은, 학습하고자 하는 문장을 최소 의미단위로 나누고, 나누어진 의미단위를 듣기, 말하기, 읽기, 쓰기 학습을 할 수 있도록 문장과 관련된 문장 데이터를 함께 순차적으로 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to solve the above-mentioned problems, and it is an object of the present invention to provide an apparatus and a method for dividing a sentence to be learned into a minimum semantic unit and transmitting sentence data related to the sentence so that the divided semantic units can be heard, And to provide a language learning learning apparatus and method using semantic units and pronunciation data of native speakers sequentially provided.
또한 본 발명의 목적은, 학습하고자 하는 문장을 최소 의미단위로 나누고, 나누어진 최소 의미단위들을 2개, 3개, 4개씩 묶어서 순차적으로 제공할 수 있도록 하여 문장 속독 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a semantic unit for providing sentence predication learning by dividing a sentence to be learned into a minimum semantic unit and sequentially dividing the divided semantic units into two, The present invention provides a language learning learning apparatus and method using pronunciation data of a language learning apparatus.
또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공 시간을 조절하여 문장을 의미단위로 분석하는 학습과 문장 속독 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
Another object of the present invention is to provide a method and apparatus for analyzing a sentence in terms of semantics by adjusting delivery time when sequentially providing sentences to be learned in semantic units, And to provide a language learning learning apparatus and method.
또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공되는 의미단위에 색깔을 부여하여 문장을 의미단위로 분석하는 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is another object of the present invention to provide a speech recognition apparatus and a speech recognition method, which are capable of providing semantic units for analyzing sentences in terms of semantics by providing colors to semantic units provided when sequential semantic units are provided, And to provide a language learning learning apparatus and method.
또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공된 문장을 연상시킬 수 있는 이미지 데이터를 함께 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a language teaching learning apparatus and method using semantic units and native language pronunciation data that together provide image data that can remind sentences provided when the sentences to be learned are divided in semantic units sequentially .
또한 본 발명의 목적은, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 문장을 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능한, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
The object of the present invention is also to provide a language learning method using pronunciation units of a meaning unit and a native speaker that can be corrected so that a learner pronounces a sentence by comparing the pronunciation data of a native speaker with pronunciation data of a learner, Apparatus and method.
또한 본 발명의 목적은, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a device and method for learning a language teaching using pronunciation units of a meaning unit and a native speaker so that the strength of a pronunciation and the position of a strength can be closely checked through comparison of a sound waveform.
또한 본 발명의 목적은, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 학습을 하도록 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.It is also an object of the present invention to provide an apparatus and a method for providing pronunciation of a native speaker by providing various kinds of pronunciation data such as female, male, American pronunciation, English pronunciation, Apparatus and method.
본 발명에 의한 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치는 문장, 문장과 관련된 문장 데이터, 문장을 연상 시킬 수 있는 이미지 데이터 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부;
The present invention provides a language education and learning apparatus using pronunciation units of a meaning unit and a native speaker, the apparatus comprising: a storage unit storing sentence data, sentence data related to the sentence, image data capable of reminding a sentence,
문장 선택 및 문장 입력 위한 입력부;
An input unit for selecting sentences and inputting sentences;
선정된 문장의 학습이 시작되면 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시되고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 표시부;
A display unit for displaying the image data and the sentence data related to the displayed sentence, the sentence being sequentially displayed in semantic units by dividing the sentence into semantic units when the learning of the selected sentence starts;
학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부;
An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence;
상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부;
A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice;
학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부;
A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence;
상기 카메라부로부터 입력된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및
An image processing unit for normalizing a face muscle change and a shape of a lips and a focus and a size of positional image data of a tooth and a tongue when a learner inputs a sentence from the camera unit; And
상기 영상 처리부를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 할 수 있다.
The linguistic model, and the positional image of the tooth and the tongue, and the sentence pronunciations of the native speaker stored in the storage unit, when the sentence pronunciation of the learner is normalized through the image processing unit, And a control section for displaying the waveform processed by the speech waveform processing section and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% .
또한, 상기 제어부가 인터넷 웹 브라우저의 표시되는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 할 수 있다.
The control unit may further include a wired / wireless network unit for dividing the sentences matching the sentences stored in the storage unit among the displayed sentences of the Internet web browser into meaning units and sequentially displaying the sentences in a semantic unit have.
또한, 상기 제어부가 DMB 영어방송에서 나오는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 DMB 모듈부를 더 포함하는 것을 특징으로 할 수 있다.
The control unit may further include a DMB module unit for dividing the sentences matching the sentences stored in the storage unit among the sentences of the DMB English broadcast into meaning units and sequentially displaying the sentences in a semantic unit .
또한 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 할 수 있다.
In addition, the layer of the display unit may be divided into Home, Dic, and Option tabs.
또한, 상기 Home 텝에는 학습자가 선택한 문장이 순차적으로 표시되며, 문장과 관련된 이미지 데이터, 문장 데이터, 원어민의 문장 발음 시 얼굴, 의미단위로 분리된 문장, 원어민의 문장 발음 시 입술의 모양 그리고 치아와 혀의 위치 모양, 학습자의 문장 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치 모양, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 할 수 있다.
In the home tab, sentences selected by the learner are sequentially displayed. The image data related to the sentence, the sentence data, the face when pronouncing the sentence of the native speaker, the sentence separated by the meaning unit, the shape of the lips when pronouncing the sentence of the native speaker, A position of the tongue, a position of the tongue, a shape of a face or a lip of a learner when pronouncing a sentence, a position of a tooth and a tongue, a voice waveform of a native speaker, and a voice waveform of a learner.
또한 상기 Option 텝은 문장을 연상 시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 문장 발음 시 영상 및 음성 재생과 학습자의 문장 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 액센트 표기 및 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택과, 1회 최소 의미단위 출력 횟수 선택과, 의미단위 출력 시간 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다.
In addition, the Option tab is used to select whether to display image data that can remind the sentence, to select whether to display the image and voice when playing the sentence of the learner, The selection of whether or not to display the speech, the selection of the gender of the speech output, the selection of the pronunciation voice output of each country, the selection of the pronunciation correction test mode, the selection of the minimum meaning unit output number of one time, and the selection of the meaning unit output time .
또한 상기 제어부는 문장 구성 테스트에서 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 객관식으로 답을 선택할 수 있도록 표시하도록 제어하는 것을 특징으로 할 수 있다.
In addition, the control unit may control the display unit so as to present a problem in any one of Hangul text, English text, Korean speech output, and English speech output in a sentence configuration test so that an answer can be selected in a multiple choice manner.
또한 상기 제어부는 문장 구성 테스트에서 원어민의 발음으로 문제를 제시하고 학습자가 해당 단어 및 문장을 입력하도록 하여 정답을 확인하는 것을 특징으로 할 수 있다.
In addition, the control unit may present a problem by pronunciation of a native speaker in a sentence configuration test, and allow the learner to input the word and sentence to confirm the correct answer.
본 발명에 의한 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법은 학습자로부터 학습할 문장의 선택 명령이 입력되는 단계;
A method for learning a language using a meaning unit and pronunciation data of native speakers according to the present invention includes: inputting a command to select a sentence to be learned from a learner;
상기 선택된 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 단계;
The selected sentence is divided into semantic units and sequentially displayed, and image data and sentence data related to the sentence are displayed;
상기 선택된 문장에 따른 원어민 발음 시 영상이 표시되는 단계;
Displaying an image when a native speaker is pronunciated according to the selected sentence;
상기 표시된 문장에 따른 학습자의 문장 발음 시 음성 및 영상이 입력되는 단계;
Inputting a voice and an image when a learner is pronunciating a sentence according to the displayed sentence;
원어민의 문장 발음 시 영상 및 학습자의 문장 발음 시 영상이 표시되어 재생되는 단계;
A step of displaying a picture when a native speaker pronounces a sentence and a picture displayed when a sentence of a learner is pronounced and reproduced;
원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 및,
A step of displaying a comparison screen of a native speech waveform and a learner speech waveform; And
원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 할 수 있다.And displaying "bad" if the similarity degree between the native speech waveform and the learner speech waveform is "good" if the similarity is 50% or more and "bad" if the similarity is less than 50%.
본 발명의 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습 방법에 의하면, 문장을 의미단위로 나누어, 문장을 순차적으로 표시하여 효과적인 문장 구성 언어학습이 가능하며, 해당 문장과 관련된 이미지 데이터와 문장 데이터를 표시하여 직관적이고 문장을 현장감있게 연상시킬 수 있는 언어학습이 가능하고, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 문장을 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능하며, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있고, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 학습을 하도록 하는 효과가 있다.According to the language learning learning method using the meaning unit and the pronunciation data of native speakers of the present invention, an effective sentence configuration language learning is possible by dividing a sentence into meaning units and sequentially displaying sentences, and image data related to the sentence and sentence data And it is possible to correct the pronunciation so that the learner pronounces the sentence by comparing the pronunciation data of the native speaker with the pronunciation data of the learner. , The voice waveforms can be checked in detail to check the strength of the pronunciation and the position of the accent and the pronunciation data of the native speaker can be provided in various types such as female, male, American pronunciation, English pronunciation, There is an effect to be provided.
도 1은 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치의 구성을 나타낸 블록도.
도 2는 본 발명의 실시 예에 따른 학습할 문장 선택 화면의 예를 나타낸 도면.
도 3,4는 본 발명의 실시 예에 따른 문장의 학습 화면의 예를 나타낸 도면.
도 5는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 정보를 표시한 예를 나타낸 도면.
도 6는 본 발명의 실시 예에 따른 Option 텝에서의 문장학습 옵션 선택목록의 예를 나타낸 도면.
도 7은 본 발명의 실시 예에 따른 객관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면.
도 8은 본 발명의 실시예에 따른 주관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면.
도 9는 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법의 흐름도.1 is a block diagram showing a configuration of a language education learning apparatus using pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention;
2 is a view showing an example of a sentence selection screen to be learned according to an embodiment of the present invention;
3 and 4 are views showing examples of sentence learning screens according to an embodiment of the present invention.
5 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention;
6 is a view showing an example of a sentence learning option selection list in an Option tab according to an embodiment of the present invention;
7 is a diagram illustrating an example of a multiple-choice sentence configuration test method according to an embodiment of the present invention.
8 is a diagram illustrating an example of a sentence configuration test method in the form of a supporting expression according to an embodiment of the present invention.
9 is a flowchart of a language education learning method using the pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.
이하 첨부된 도면을 참조하여 본 발명의 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 대해 설명하도록 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to like elements throughout.
본 발명에서 상기 의미단위는 문장을 구성하는 한 가지 뜻을 구성하는 단어의 집합이라 할 수 있다. 예를 들어, “While some people prefer to stay in the comfort of their own home, others have been bitten by the travel bug and can't wait to explore the world.”라는 문장을 작은 의미단위로 나눈다면 “While / some people / prefer to stay / in the comfort / of their own home, / others / have been bitten / by the travel bug / and / can't wait / to explore / the world.” 이렇게 12개의 의미단위로 나눌 수 있고, 큰 의미단위로 나눈다면 “While some people prefer to stay / in the comfort of their own home, / others have been bitten by the travel bug / and can't wait to explore the world.” 이렇게 4개의 의미 단위로 나눌 수 있다.
In the present invention, the semantic unit is a set of words constituting one meaning constituting a sentence. For example, if you break down the sentence "While some people prefer to stay in the comfort of their own home, It is possible to divide into 12 semantic units like this. "Some people / prefer to stay / in the comfort / of their own home, / others / have been bitten / by the travel bug / If you divide by the big meanings, "While some people prefer to stay / in the comfort of their own home, / others have been bitten by the travel bug / .
도 1은 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치의 구성을 나타낸 블록도이다.
FIG. 1 is a block diagram showing a configuration of a language education learning apparatus using pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.
도 1을 참조하면, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 (100)는 문장, 문장과 관련된 문장 데이터, 문장과 관련된 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터가 저장된 저장부(104)와, 문장 선택 및 문장 입력을 위한 입력부(102)와, 학습자가 선택한 문장의 학습이 시작되면 문장을 의미단위로 나누어, 문장이 의미단위로 순차적 표시되고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 표시부(114)와, 학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부(106)와, 상기 오디오 처리부(106)를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부(108) 및 음성 파형 처리부(110)와, 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부(112)와, 상기 카메라부(112)로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부(116)와, 상기 영상 처리부(116)를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부(104)에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부(108) 와 음성 파형 처리부(110)를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부(122)와, 상기 제어부(122)가 인터넷 웹 브라우저의 화면에 표시되는 문장 중 상기 저장부(104)에 저장된 문장과 일치하는 문장을 의미단위로 나누고, 문장이 의미단위로 순차적 표시할 수 있도록 하는 유무선 네트워크부(118)와, 상기 제어부(122)가 DMB 영어 방송에서 나오는 문장 중 상기 저장부(104)에 저장된 문장과 일치하는 문장을 의미단위로 나누고, 문장이 의미단위로 순차적 표시할 수 있도록 하는 DMB 모듈부(120)로 구성된다.
Referring to FIG. 1, a language
도시되진 않았지만, 상기 표시부(114)의 화면을 좌/우로 구분하여 좌측에 인터넷 웹 브라우저의 화면 또는 DMB 방송 영상을 표시하고, 우측에 상기 저장부(104)에 저장된 문장과 일치하는 문장을 표시하여 학습자가 학습을 원하는 문장을 선택하면 상기 저장부(104)에 저장된 이미지 데이터와 문장 데이터와 원어민 발음 시 영상이 재생되도록 하는 것이 바람직하다.
Although not shown, a screen of the Internet web browser or a DMB broadcast image is displayed on the left side of the screen of the
이는, 학습자가 인터넷 웹 브라우저의 화면 또는 DMB 영어 방송을 통해 문장의 학습 상태를 확인해볼 수 있으며, 알아듣지 못했던 문장을 체크하고 복습할 수 있는 효과가 있다.
This has the effect that the learner can check the learning status of the sentence through the screen of the Internet web browser or the DMB English broadcast, and can check and review sentences that have not been received.
도시되진 않았지만, 외국어 학습서적 또는 컴퓨터, 스마트폰, 테블릿pc, pmp 등 디스플레이를 통해 출력되는 외국어 학습프로그램에 증강 현실을 구현하기 위한 마커를 표기하고, 상기 카메라부(112)를 통해 해당 마커를 수집하여, 저장부(104)에 저장된 문장, 문장과 관련된 문장 데이터, 문장과 관련된 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터 중 해당 마커와 관련된 각각의 데이터가 화면을 통해 재생되도록 하는 것이 바람직하다.
Although not shown, a marker for implementing an augmented reality is written in a foreign language learning book or a foreign language learning program output through a display such as a computer, a smart phone, a tablet pc, or a pmp, and the marker is displayed through the
이는, 학습자가 학습 시 즉각적으로 학습과 관련된 데이터를 제공받고, 발음학습에도 도움이 되는 효과가 있다.
This has the effect that the learner is immediately provided with the data related to the learning at the time of learning and also helps the pronunciation learning.
의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 (100)는 컴퓨터 단말기, 테블릿 PC, 어학기 및 스마트폰을 포함하며, 상기 입력부(102)는 상기 학습장치(100)의 키 패드 또는 터치 스크린 모듈 및 터치 팬을 포함한다.
The
상기 오디오 처리부(106)는 음성 입력 및 출력과 미디어 출력이 가능하도록 마이크(microphone)와 스피커를 포함한다.
The
학습자가 학습하고자 하는 학습이 시작되면, 도 3,4에서와 같이, Home 텝(10)에 문장을 연상시킬 수 있는 이미지 데이터(11), 원어민의 문장 발음 시 얼굴(12), 의미단위로 나누어 표기된 문장과 문장 데이터(13), 원어민의 문장 발음 시 입술의 모양 그리고 치아와 혀의 위치 모양(14), 학습자의 문장 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치 모양(15), 원어민의 음성 파형(16) 및 학습자의 음성 파형(17)이 표시되고 하단에 Next, Repeat, Slow 버튼과 녹음 및 재생 버튼이 표시된다.
As shown in FIGS. 3 and 4, when the learner starts learning, the
우선, 의미단위로 나누어 표기된 문장이 관련된 이미지 데이터, 문장 데이터와 함께 표시됨과 동시에 해당 문장을 발음하는 원어민의 문장 발음 시 동영상이 재생된다.
First, a sentence divided into meaning units is displayed together with associated image data and sentence data, and at the same time, a moving picture is reproduced when a native speaker who pronounces the sentence pronounces a sentence.
이후, 표시되진 않았지만 학습자의 음성을 입력 받을 수 있도록 팝업메뉴를 띄워 학습장치(100)에 구비된 카메라를 바라보며 해당 문장을 발음하도록 한다.
Thereafter, a pop-up menu is displayed so that the learner's voice can be input even though it is not displayed, and the corresponding sentence is pronounced by looking at the camera provided in the
음성 녹음 및 영상 촬영이 완료되면, 해당 문장에 대한 원어민의 문장 발음 시 입 부분이 확대된 발음 동영상과 학습자의 녹화된 발음 동영상이 재생 되도록 한다
When the voice recording and the video recording are completed, the pronunciation video in which the mouth part is enlarged and the recorded pronunciation video of the learner are reproduced in the sentence pronunciation of the native speaker
영상 처리부(116)는 해당 화면의 프레임에 입 모양이 표시될 수 있도록 영상을 가공하여 규격화할 수 있는 프로그램이 탑재되는 것이 바람직하며, 녹화된 영상이 데이터로 활용될 수 없는 경우 재녹화될 수 있도록 학습자에게 요구사항을 팝업메뉴 형태로 표시하는 것이 바람직하다.
Preferably, the
또한, 학습자의 발음 영상 재생은 녹화방식이 아닌 현재 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치가 카메라를 통해 실시간으로 입력되어 표시되도록 함으로써, 학습자가 본인의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 직접 화면을 통해 확인하면서 원어민의 발음 모양과 같아지도록 연습할 수 있도록 하는 것이 바람직하다.
In addition, the pronunciation video reproduction of the learner allows the learner's facial muscle change, lips shape, and tooth and tongue position to be inputted and displayed in real time through the camera, not by the recording method, Shape, and position of the teeth and tongue directly on the screen, so that it can be practiced to be the same as the pronunciation of the native speaker.
이때, 음성 분석 모듈부(108)에서 학습자의 음성을 분석하고, 분석된 데이터를 토대로 음성 파형 처리부(110)를 통해 파형으로 변환시켜 원어민 음성 파형과 비교할 수 있도록 표시한다.
At this time, the
도 5는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 상 정보를 표시한 예를 나타낸 도면이다.
5 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention.
도 5에 도시된 바와 같이, Dic 텝(20)을 선택하면 단어를 검색하여 단어의 사전적 의미와 예문 등을 확인할 수 있다.
As shown in FIG. 5, if the user selects the
도 6는 본 발명의 실시 예에 따른 Option 텝에서의 언어학습 옵션 선택목록의 예를 나타낸 도면이다.
6 is a diagram illustrating an example of a language learning option selection list in an Option tab according to an embodiment of the present invention.
도 6에 도시된 바와 같이, 상기 Option 텝(30)은 문장을 연상 시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 문장 발음 시 영상 및 음성 재생과 학습자의 문장 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 액센트 표기 및 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택과, 1회 최소 의미단위 출력 횟수 선택과, 의미단위 출력 시간 선택 메뉴로 구성되며 표시되는 방식을 학습자가 선택할 수 있도록 하여 학습자가 자신에게 가장 적합한 방식으로 조절할 수 있도록 한다.
As shown in FIG. 6, the
도 7은 본 발명의 실시 예에 따른 객관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면이고, 도 8은 본 발명의 실시 예에 따른 주관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면이다.
FIG. 7 is a diagram illustrating an example of a multiple choice sentence configuration test method according to an embodiment of the present invention, and FIG. 8 illustrates an example of a sentence type configuration test method according to an exemplary embodiment of the present invention.
도 7 내지 도 8에 도시된 바와 같이, 문장 구성 테스트 방식은 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 객관식으로 답을 선택할 수 있도록 표시하거나, 원어민의 발음으로 문제를 제시하고 학습자가 해당 단어 및 문장을 입력하도록 하여 정답을 확인하는 방식을 사용할 수 있다.
As shown in FIGS. 7 to 8, the sentence configuration test method can present a problem with either Korean text, English text, Korean speech output, or English speech output, and can display the answer in a multiple choice manner, You can use the method to present the problem and let the learner enter the word and sentence to confirm the correct answer.
학습자가 단어 및 문장을 입력하는 방식은 객관식인 경우 손가락이나 터치펜으로 번호를 선택하거나 키패드로 번호를 입력할 수 있으며, 단어 및 문장을 직접 입력하는 경우에는 손가락 또는 터치펜으로 직접 단어 및 문장을 적거나 키패드로 단어 및 문장을 입력할 수 있다.
The way the learner enters the words and sentences can be a multiple choice with a finger or a touch pen or a number with the keypad if you have multiple choices. If you enter words and sentences directly, You can enter words and phrases with or without a keypad.
도 9는 본 발명의 실시예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법의 흐름도이다.
9 is a flowchart of a language education learning method using the pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.
도 9를 참조하면, 먼저 입력부(102)를 통해 학습자는 학습하고자 하는 문장을 선택한다(S200).
Referring to FIG. 9, a learner selects a sentence to be learned through the input unit 102 (S200).
상기 입력부(102)를 통한 학습 레벨 선택이 완료되면, 표시부(114)의 Home(10)에 선택된 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터, 문장 데이터, 해당 문장의 원어민 발음 시 영상이 표시 및 재생된다(S202).
When the learning level selection through the
이후, 오디오 처리부(106)를 통해 학습자의 문장 발음 시 음성을 입력받고, 카메라부(112)를 통해 학습자의 발음 시 얼굴 영상을 취득한다(S204).
Then, the learner's voice is input through the
저장부(104)에 저장된 원어민의 발음 시 영상이 재생되고, 영상 처리부(116)를 통해 포커스와 사이즈가 규격화된 학습자의 발음 시 영상이 재생되도록 한다(S206).
(Step S206). In this way, the learner's pronunciated image of the learner, whose focus and size are standardized, is reproduced through the image processing unit 116 (S206).
학습자의 발음 시 영상에 있어서는 학습자마다 문장을 발음할 때 카메라와의 거리, 학습자마다 영상에서 차지하는 얼굴 사이즈 등이 달라지게 되는 것이 일반적이다.
In the case of the learner's pronunciations, the distance between the learner and the camera, and the face size occupied by the learner are different for each learner.
따라서, 상기 영상 처리부(116)는 학습자의 얼굴 형태를 인식하고 프레임에서 얼굴 형태가 차지하는 사이즈로 확대 또는 축소하여 규격화된 포커스와 사이즈로 학습자의 발음 시 영상이 보여질 수 있도록 하는 것이 바람직하다.
Accordingly, the
이때, 학습자의 발음 시 영상 재생은 녹화 재생 또는 실시간 재생 방식을 적용할 수 있다.
At this time, the learner can apply the recording reproduction or the real time reproduction method to the image reproduction upon pronunciation.
그리고, 상기 오디오 처리부(106)를 통해 입력된 학습자의 음성 데이터를 음성 분석 모듈부(108)에서 분석하여 음성 파형 처리부(110)를 통해 파형으로 변환하여 표시될 수 있도록 한다(S208).
The
학습자의 음성 파형은 저장부(104)에 저장된 원어민의 음성 파형과 비교될 수 있도록 나란히 표시하고, 원어민이 어느 부분을 강하게 발음하는지를 학습자가 확인할 수 있도록 한다.
The learner's voice waveform is displayed side by side so that it can be compared with the voice waveform of the native speaker stored in the
파형은 음의 진동 모양을 시간 차이로 나누어 표시할 때 생기는 파장의 형태로써, 음성 파형은 문장을 발음할 때의 액센트와 리듬을 확인할 수 있는 중요한 요소가 된다.
A waveform is a type of wavelength that occurs when the waveform of a sound is displayed divided by time difference. A voice waveform is an important factor for confirming the accent and rhythm when a sentence is pronounced.
상기와 같이, 학습자가 원하는 학습을 원하는 문장을 선택하여 학습을 시작하면, 해당 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터와 문장 데이터도 순차적으로 표시되며, 원어민의 발음 시 동영상이 표시되고, 학습자의 발음 시 음성과 영상을 입력 받아 원어민의 발음 시 영상과 비교할 수 있도록 하며, 원어민의 음성 파형과 학습자의 음성 파형을 비교할 수 있도록 하여 정확한 발음 교정 및 정확한 액센트를 익힐 수 있는 효과가 있다.
As described above, when the learner selects a desired sentence to start learning, the sentence is divided into meaning units and displayed sequentially, and image data and sentence data related to the sentence are also displayed sequentially, And the learner's pronunciation can be compared with the pronunciation of the native speaker by inputting the voice and video and comparing the voice waveform of the native speaker with the voice waveform of the learner so that the correct pronunciation and correct accent can be learned .
이상에서는 학습자가 학습하는 언어가 영어인 경우를 예로 들어 설명하였으나 영어 외에 중국어, 일본어, 독일어, 불어 등의 다른 외국어에도 본 발명이 적용될 수 있음은 물론이다.In the above, the case where the learner learns English is described as an example, but it goes without saying that the present invention can also be applied to other languages such as Chinese, Japanese, German, French and so on.
100 : 언어 학습 장치 102 : 입력부
104 : 저장부 106 : 오디오 처리부
108 : 음성 분석 모듈부 110 : 음성 파형 처리부
112 : 카메라부 114 : 표시부
116 : 영상 처리부 118 : 유무선 네트워크부
120 : DMB 모듈부 122 : 제어부100: language learning apparatus 102: input unit
104: storage unit 106: audio processing unit
108: Voice analysis module 110: Voice waveform processor
112: camera section 114: display section
116: image processing unit 118: wired / wireless network unit
120: DMB module unit 122:
Claims (9)
In the device for teaching language learning using the unit of meaning and pronunciation data of native speakers, accents related to sentences and sentences, pronunciation symbols related to sentences, images interpreted in the language of the country in which the sentence is learned, An animation or image, a native speech image, and sound waveform data; An input unit for selecting sentences and inputting sentences; When the learning of the selected sentence begins, the sentence is divided into semantic units, and sentences are sequentially displayed in the semantic unit. Accents related to the displayed sentences, phonetic symbols related to the sentences, sentences interpreted in the language of the country A display unit that displays an image or an animation or an image that can be reminiscent; An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice; A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence; An image processing unit for normalizing a face muscle change and a shape of a lips and a focus and a size of positional image data of a tooth and a tongue when a learner inputs a sentence from the camera unit; And a display unit for comparing and displaying the facial muscle change, the shape of the lips, the position image of the teeth and the tongue, and the sentence pronunciations of the native speakers stored in the storage unit when the learner's pronunciation is standardized through the image processing unit, And a control unit for displaying the waveform processed by the speech waveform processing unit and the speech waveform of the stored native speaker, comparing the similarity levels, and controlling to display "good" when the similarity is 50% or more and "bad" when the similarity is less than 50% A language teaching learning device using characteristic unit and pronunciation data of native speakers.
A method of learning language learning using pronunciation units of meaning units and native speakers, the method comprising: inputting a selection command for a sentence to be learned from a learner; The selected sentence is sequentially displayed in the form of a sentence divided into semantic units, and an image or an animation or image capable of reminding the sentence, accents related to the sentence, pronunciation symbols related to the sentence, A step of displaying an image when pronunciating a native speaker; Inputting a voice and an image when a learner is pronunciating a sentence according to the displayed sentence; A step of displaying a picture when a native speaker pronounces a sentence and a picture displayed when a sentence of a learner is pronounced and reproduced; And displaying a comparison screen of the native speech waveform and the learner speech waveform; And displaying the word " bad " when the similarity of the native speech waveform and the learner speech waveform is " good " if the similarity is 50% or more and less than 50%, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130000019A KR20140087953A (en) | 2013-01-01 | 2013-01-01 | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130000019A KR20140087953A (en) | 2013-01-01 | 2013-01-01 | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20140087953A true KR20140087953A (en) | 2014-07-09 |
Family
ID=51736780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130000019A Withdrawn KR20140087953A (en) | 2013-01-01 | 2013-01-01 | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20140087953A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200033066A (en) * | 2018-09-19 | 2020-03-27 | 강철희 | method for educating English using image and service system therefor |
WO2025037695A3 (en) * | 2023-08-14 | 2025-09-12 | (주)사운더스트리 | Image content automatic generation-based smart education system |
-
2013
- 2013-01-01 KR KR1020130000019A patent/KR20140087953A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200033066A (en) * | 2018-09-19 | 2020-03-27 | 강철희 | method for educating English using image and service system therefor |
WO2025037695A3 (en) * | 2023-08-14 | 2025-09-12 | (주)사운더스트리 | Image content automatic generation-based smart education system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111739556B (en) | Voice analysis system and method | |
KR102043419B1 (en) | Speech recognition based training system and method for child language learning | |
CN109903594A (en) | Spoken language exercise householder method, device, equipment and storage medium | |
JP6656529B2 (en) | Foreign language conversation training system | |
KR20140087956A (en) | Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data | |
KR20140078810A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
KR20140075994A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thought unit | |
KR20140107067A (en) | Apparatus and method for learning word by using native speakerpronunciation data and image data | |
KR20140079677A (en) | AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data | |
KR20140087953A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit | |
KR20140087951A (en) | Apparatus and method for learning english grammar by using native speaker's pronunciation data and image data. | |
KR20140073768A (en) | Apparatus and method for language education using meaning unit and pronunciation data of native speakers | |
KR20140028527A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word | |
JP2014038140A (en) | Language learning assistant device, language learning assistant method and language learning assistant program | |
KR20140074459A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data | |
KR101681673B1 (en) | English trainning method and system based on sound classification in internet | |
KR20140087950A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
KR20140079245A (en) | Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers | |
KR20140082127A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word | |
KR20140074457A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit and image data | |
KR20140078077A (en) | Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit | |
KR20140087959A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data | |
KR20140087955A (en) | Apparatus and method for learning English prepositions using image data and pronunciation data of native speakers | |
KR20140078080A (en) | Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data | |
KR20140087957A (en) | Apparatus and method for Language Pattern Education by using sentence data. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20130101 |
|
PG1501 | Laying open of application | ||
PC1203 | Withdrawal of no request for examination | ||
WITN | Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid |