[go: up one dir, main page]

KR20140087953A - Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit - Google Patents

Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit Download PDF

Info

Publication number
KR20140087953A
KR20140087953A KR1020130000019A KR20130000019A KR20140087953A KR 20140087953 A KR20140087953 A KR 20140087953A KR 1020130000019 A KR1020130000019 A KR 1020130000019A KR 20130000019 A KR20130000019 A KR 20130000019A KR 20140087953 A KR20140087953 A KR 20140087953A
Authority
KR
South Korea
Prior art keywords
sentence
unit
learner
pronunciation
native
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
KR1020130000019A
Other languages
Korean (ko)
Inventor
주홍찬
Original Assignee
주홍찬
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주홍찬 filed Critical 주홍찬
Priority to KR1020130000019A priority Critical patent/KR20140087953A/en
Publication of KR20140087953A publication Critical patent/KR20140087953A/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 관한 것으로서 문장 데이터, 문장을 연상시킬 수 있는 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터가 저장된 저장부; 문장 선택 및 문장 입력을 위한 입력부; 학습자가 선택한 문장의 학습이 시작되면 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시하고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터를 표시하는 표시부; 학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부; 상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 발음 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부; 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부; 상기 카메라부로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 상기 영상 처리부를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공한다.The present invention relates to a language teaching learning apparatus and method using pronunciation units of a meaning unit and a native speaker, and includes a storage unit storing sentence data, image data capable of reminding a sentence, pronunciations of native speakers, and sound waveform data. An input unit for selecting sentences and inputting sentences; A display unit for displaying sentences sequentially in a semantic unit by dividing sentences into semantic units when learning of a sentence selected by a learner starts, and displaying image data and sentence data related to the displayed sentences; An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and for comparing and analyzing the waveform of the native pronunciation voice with respect to the inputted voice; A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence; An image processing unit for normalizing a change in facial muscle input from the camera unit, a shape of the lip, and a focus and size of a position image of the tooth and the tongue; The linguistic model, and the positional image of the tooth and the tongue, and the sentence pronunciations of the native speaker stored in the storage unit, when the sentence pronunciation of the learner is normalized through the image processing unit, And a control section for displaying the waveform processed by the speech waveform processing section and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% And a language learning learning apparatus and method using pronunciation units of native speakers and pronunciation data of native speakers.

Figure pat00001
Figure pat00001

Description

의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법 {Apparatus and method for Language Education by using native speaker’s pronunciation data and ThoughtUnit}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and apparatus for teaching language learning using pronunciation units of meaning units and native speakers,

본 발명은 문장의 의미단위와 해당 문장을 연상 시킬 수 있는 이미지 데이터 및 원어민의 "의미단위로 형성된 문장 발음 시 얼굴 정면과 측면 얼굴 영상, 의미단위로 형성된 문장 발음 시 음성, 의미단위로 형성된 문장 발음에 따른 음성 파형, 의미단위로 형성된 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 모양”(이하 “발음 데이터”라고 함)을 이용한 언어교육 학습장치 및 방법에 관한 것으로, 보다 상세하게는 학습하고자 하는 문장을 의미단위로 나누어 듣기, 말하기, 읽기, 쓰기 학습을 할 수 있도록 순차적으로 제공하고, 해당 문장과 관련된 “액센트, 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻”(이하 “문장 데이터”라고 함)이 표시되고, 해당 문장을 연상시킬 수 있는 “이미지 또는 애니메이션 또는 영상”(이하 “이미지 데이터”라고 함)을 함께 제공하며, 표시된 문장에 대한 원어민의 발음 시 음성과 영상이 재생되도록 하고, 학습자의 문장 발음에 따른 음성과 영상을 입력받아 원어민 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 및 학습자 발음의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 재생 화면을 표시하고, 음성 파형 비교 화면을 표시하여 효과적인 언어교육 학습을 하기 위한, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 관한 것이다.The present invention relates to a method and apparatus for recognizing the meaning of a sentence, image data capable of associating the sentence with the sentence, and a sentence formed by the meaning unit of the native language, (Hereinafter, referred to as " pronunciation data "), and more particularly, to a device and method for teaching and learning language using a voice waveform according to a phoneme, a facial muscle change, a shape of a lip and a position of a tooth and a tongue , Which is divided into semantic units for learning, speaking, reading, and writing, and is interpreted as a language of the country that learns about accents, pronunciation symbols, and sentences related to the sentence (Hereinafter referred to as " sentence data ") is displayed, and an " image or animation " (Hereinafter, referred to as " image data "), and the voice and the image are reproduced in the pronunciation of the native language of the displayed sentence, and the voice and the image according to the pronunciation of the sentence of the learner are input, And the shape of the lips and the position of the teeth and tongue Playing and learning of the learner's face Muscle changes and shape of the lip and position of the tooth and tongue Display the playback screen and show the voice waveform comparison screen, And a method and apparatus for learning a language using pronunciation data of a native speaker.

어학을 효율적으로 학습하기 위한 다양한 프로그램들과 제품들이 개발되고 있는데, 일반적으로 카세트 플레이어나 MP3, PMP 등과 같은 휴대용 단말기를 이용한 학습방법이 주로 이용되고 있다.
Various programs and products for learning language efficiently have been developed, and learning methods using portable terminals such as cassette players, MP3s, and PMPs are generally used.

일예로 영어교육이 있는데, 영어교육은 듣기, 말하기, 쓰기 등으로 나누어 볼 수 있다. 따라서 영어교육이 효과적으로 이루어지기 위해서는 상기의 듣기, 말하기, 쓰기를 모두 효과적으로 학습시켜야 할 필요가 있다.
One example is English education, which can be divided into listening, speaking and writing. Therefore, in order for English education to be effective, it is necessary to study all of the above listening, speaking and writing effectively.

종래의 영어교육방법은 상황에 따른 대화를 단순한 문장으로 연결시켜 학습자에게 출력시키게 됨으로써, 각 문장을 구성하고 있는 의미단위(한 가지 뜻을 구성하는 단어의 집합)를 인식하지 못하게 된다. 따라서 학습자는 문장전체를 통째로 암기할 필요가 있게 되어, 상황에 따른 문장의 구현이 불가능하게 되는 단점이 있다.
In the conventional English teaching method, the conversation according to the situation is connected to a simple sentence and outputted to the learner, so that the meaning unit (a group of words constituting one meaning) constituting each sentence can not be recognized. Therefore, the learner needs to memorize the entire sentence, which makes it impossible to implement the sentence according to the situation.

그리고, 상황에 따른 대화를 텍스트 문장으로만 나열하여, 상황에 대한 현장감이 떨어지는 단점이 있다.
In addition, there is a disadvantage in that the presence of the situation is deteriorated by listing the conversation according to the situation only in a text sentence.

마지막으로, 문장을 발음하는 원어민의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치, 그 발음을 따라하는 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 보지 못하여 언어학습임에도 불구하고, 언어 발음을 정확히 구사할 수 없는 단점이 있다.Lastly, it is difficult to see the position of the lips, the position of the teeth and the tongue, the learner 's facial muscle changes, the shape of the lips, and the location of the teeth and tongue, And the pronunciation of the language can not be accurately pronounced.

따라서, 상기한 문제점을 해결하기 위한 본 발명의 목적은, 학습하고자 하는 문장을 최소 의미단위로 나누고, 나누어진 의미단위를 듣기, 말하기, 읽기, 쓰기 학습을 할 수 있도록 문장과 관련된 문장 데이터를 함께 순차적으로 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to solve the above-mentioned problems, and it is an object of the present invention to provide an apparatus and a method for dividing a sentence to be learned into a minimum semantic unit and transmitting sentence data related to the sentence so that the divided semantic units can be heard, And to provide a language learning learning apparatus and method using semantic units and pronunciation data of native speakers sequentially provided.

또한 본 발명의 목적은, 학습하고자 하는 문장을 최소 의미단위로 나누고, 나누어진 최소 의미단위들을 2개, 3개, 4개씩 묶어서 순차적으로 제공할 수 있도록 하여 문장 속독 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a semantic unit for providing sentence predication learning by dividing a sentence to be learned into a minimum semantic unit and sequentially dividing the divided semantic units into two, The present invention provides a language learning learning apparatus and method using pronunciation data of a language learning apparatus.

또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공 시간을 조절하여 문장을 의미단위로 분석하는 학습과 문장 속독 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
Another object of the present invention is to provide a method and apparatus for analyzing a sentence in terms of semantics by adjusting delivery time when sequentially providing sentences to be learned in semantic units, And to provide a language learning learning apparatus and method.

또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공되는 의미단위에 색깔을 부여하여 문장을 의미단위로 분석하는 학습을 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is another object of the present invention to provide a speech recognition apparatus and a speech recognition method, which are capable of providing semantic units for analyzing sentences in terms of semantics by providing colors to semantic units provided when sequential semantic units are provided, And to provide a language learning learning apparatus and method.

또한 본 발명의 목적은, 학습하고자 하는 문장을 의미단위로 나눠 순차적으로 제공할 때 제공된 문장을 연상시킬 수 있는 이미지 데이터를 함께 제공하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a language teaching learning apparatus and method using semantic units and native language pronunciation data that together provide image data that can remind sentences provided when the sentences to be learned are divided in semantic units sequentially .

또한 본 발명의 목적은, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 문장을 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능한, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
The object of the present invention is also to provide a language learning method using pronunciation units of a meaning unit and a native speaker that can be corrected so that a learner pronounces a sentence by comparing the pronunciation data of a native speaker with pronunciation data of a learner, Apparatus and method.

또한 본 발명의 목적은, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있도록 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.
It is also an object of the present invention to provide a device and method for learning a language teaching using pronunciation units of a meaning unit and a native speaker so that the strength of a pronunciation and the position of a strength can be closely checked through comparison of a sound waveform.

또한 본 발명의 목적은, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 학습을 하도록 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법을 제공함에 있다.It is also an object of the present invention to provide an apparatus and a method for providing pronunciation of a native speaker by providing various kinds of pronunciation data such as female, male, American pronunciation, English pronunciation, Apparatus and method.

본 발명에 의한 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치는 문장, 문장과 관련된 문장 데이터, 문장을 연상 시킬 수 있는 이미지 데이터 그리고 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부;
The present invention provides a language education and learning apparatus using pronunciation units of a meaning unit and a native speaker, the apparatus comprising: a storage unit storing sentence data, sentence data related to the sentence, image data capable of reminding a sentence,

문장 선택 및 문장 입력 위한 입력부;
An input unit for selecting sentences and inputting sentences;

선정된 문장의 학습이 시작되면 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시되고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 표시부;
A display unit for displaying the image data and the sentence data related to the displayed sentence, the sentence being sequentially displayed in semantic units by dividing the sentence into semantic units when the learning of the selected sentence starts;

학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부;
An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence;

상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부;
A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice;

학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부;
A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence;

상기 카메라부로부터 입력된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및
An image processing unit for normalizing a face muscle change and a shape of a lips and a focus and a size of positional image data of a tooth and a tongue when a learner inputs a sentence from the camera unit; And

상기 영상 처리부를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 할 수 있다.
The linguistic model, and the positional image of the tooth and the tongue, and the sentence pronunciations of the native speaker stored in the storage unit, when the sentence pronunciation of the learner is normalized through the image processing unit, And a control section for displaying the waveform processed by the speech waveform processing section and the speech waveforms of the stored native speakers and comparing the similarities to display "good" in 50% or more similarity and "bad" in case of less than 50% .

또한, 상기 제어부가 인터넷 웹 브라우저의 표시되는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 할 수 있다.
The control unit may further include a wired / wireless network unit for dividing the sentences matching the sentences stored in the storage unit among the displayed sentences of the Internet web browser into meaning units and sequentially displaying the sentences in a semantic unit have.

또한, 상기 제어부가 DMB 영어방송에서 나오는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 DMB 모듈부를 더 포함하는 것을 특징으로 할 수 있다.
The control unit may further include a DMB module unit for dividing the sentences matching the sentences stored in the storage unit among the sentences of the DMB English broadcast into meaning units and sequentially displaying the sentences in a semantic unit .

또한 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 할 수 있다.
In addition, the layer of the display unit may be divided into Home, Dic, and Option tabs.

또한, 상기 Home 텝에는 학습자가 선택한 문장이 순차적으로 표시되며, 문장과 관련된 이미지 데이터, 문장 데이터, 원어민의 문장 발음 시 얼굴, 의미단위로 분리된 문장, 원어민의 문장 발음 시 입술의 모양 그리고 치아와 혀의 위치 모양, 학습자의 문장 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치 모양, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 할 수 있다.
In the home tab, sentences selected by the learner are sequentially displayed. The image data related to the sentence, the sentence data, the face when pronouncing the sentence of the native speaker, the sentence separated by the meaning unit, the shape of the lips when pronouncing the sentence of the native speaker, A position of the tongue, a position of the tongue, a shape of a face or a lip of a learner when pronouncing a sentence, a position of a tooth and a tongue, a voice waveform of a native speaker, and a voice waveform of a learner.

또한 상기 Option 텝은 문장을 연상 시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 문장 발음 시 영상 및 음성 재생과 학습자의 문장 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 액센트 표기 및 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택과, 1회 최소 의미단위 출력 횟수 선택과, 의미단위 출력 시간 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 할 수 있다.
In addition, the Option tab is used to select whether to display image data that can remind the sentence, to select whether to display the image and voice when playing the sentence of the learner, The selection of whether or not to display the speech, the selection of the gender of the speech output, the selection of the pronunciation voice output of each country, the selection of the pronunciation correction test mode, the selection of the minimum meaning unit output number of one time, and the selection of the meaning unit output time .

또한 상기 제어부는 문장 구성 테스트에서 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 객관식으로 답을 선택할 수 있도록 표시하도록 제어하는 것을 특징으로 할 수 있다.
In addition, the control unit may control the display unit so as to present a problem in any one of Hangul text, English text, Korean speech output, and English speech output in a sentence configuration test so that an answer can be selected in a multiple choice manner.

또한 상기 제어부는 문장 구성 테스트에서 원어민의 발음으로 문제를 제시하고 학습자가 해당 단어 및 문장을 입력하도록 하여 정답을 확인하는 것을 특징으로 할 수 있다.
In addition, the control unit may present a problem by pronunciation of a native speaker in a sentence configuration test, and allow the learner to input the word and sentence to confirm the correct answer.

본 발명에 의한 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법은 학습자로부터 학습할 문장의 선택 명령이 입력되는 단계;
A method for learning a language using a meaning unit and pronunciation data of native speakers according to the present invention includes: inputting a command to select a sentence to be learned from a learner;

상기 선택된 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 단계;
The selected sentence is divided into semantic units and sequentially displayed, and image data and sentence data related to the sentence are displayed;

상기 선택된 문장에 따른 원어민 발음 시 영상이 표시되는 단계;
Displaying an image when a native speaker is pronunciated according to the selected sentence;

상기 표시된 문장에 따른 학습자의 문장 발음 시 음성 및 영상이 입력되는 단계;
Inputting a voice and an image when a learner is pronunciating a sentence according to the displayed sentence;

원어민의 문장 발음 시 영상 및 학습자의 문장 발음 시 영상이 표시되어 재생되는 단계;
A step of displaying a picture when a native speaker pronounces a sentence and a picture displayed when a sentence of a learner is pronounced and reproduced;

원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 및,
A step of displaying a comparison screen of a native speech waveform and a learner speech waveform; And

원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 할 수 있다.And displaying "bad" if the similarity degree between the native speech waveform and the learner speech waveform is "good" if the similarity is 50% or more and "bad" if the similarity is less than 50%.

본 발명의 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습 방법에 의하면, 문장을 의미단위로 나누어, 문장을 순차적으로 표시하여 효과적인 문장 구성 언어학습이 가능하며, 해당 문장과 관련된 이미지 데이터와 문장 데이터를 표시하여 직관적이고 문장을 현장감있게 연상시킬 수 있는 언어학습이 가능하고, 원어민의 발음 데이터와 학습자의 발음 데이터의 비교를 통해 학습자가 문장을 발음함에 있어 원어민의 발음과 유사해지도록 교정이 가능하며, 음성 파형의 비교를 통해 발음의 세기 및 강세의 위치를 세밀하게 체크할 수 있고, 원어민의 발음 데이터를 여성, 남성, 미국식 발음, 영국식 발음, 호주식 발음 등 여러가지 종류로 제공하여 폭 넓게 언어 학습을 하도록 하는 효과가 있다.According to the language learning learning method using the meaning unit and the pronunciation data of native speakers of the present invention, an effective sentence configuration language learning is possible by dividing a sentence into meaning units and sequentially displaying sentences, and image data related to the sentence and sentence data And it is possible to correct the pronunciation so that the learner pronounces the sentence by comparing the pronunciation data of the native speaker with the pronunciation data of the learner. , The voice waveforms can be checked in detail to check the strength of the pronunciation and the position of the accent and the pronunciation data of the native speaker can be provided in various types such as female, male, American pronunciation, English pronunciation, There is an effect to be provided.

도 1은 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치의 구성을 나타낸 블록도.
도 2는 본 발명의 실시 예에 따른 학습할 문장 선택 화면의 예를 나타낸 도면.
도 3,4는 본 발명의 실시 예에 따른 문장의 학습 화면의 예를 나타낸 도면.
도 5는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 정보를 표시한 예를 나타낸 도면.
도 6는 본 발명의 실시 예에 따른 Option 텝에서의 문장학습 옵션 선택목록의 예를 나타낸 도면.
도 7은 본 발명의 실시 예에 따른 객관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면.
도 8은 본 발명의 실시예에 따른 주관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면.
도 9는 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법의 흐름도.
1 is a block diagram showing a configuration of a language education learning apparatus using pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention;
2 is a view showing an example of a sentence selection screen to be learned according to an embodiment of the present invention;
3 and 4 are views showing examples of sentence learning screens according to an embodiment of the present invention.
5 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention;
6 is a view showing an example of a sentence learning option selection list in an Option tab according to an embodiment of the present invention;
7 is a diagram illustrating an example of a multiple-choice sentence configuration test method according to an embodiment of the present invention.
8 is a diagram illustrating an example of a sentence configuration test method in the form of a supporting expression according to an embodiment of the present invention.
9 is a flowchart of a language education learning method using the pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법에 대해 설명하도록 한다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to like elements throughout.

본 발명에서 상기 의미단위는 문장을 구성하는 한 가지 뜻을 구성하는 단어의 집합이라 할 수 있다. 예를 들어, “While some people prefer to stay in the comfort of their own home, others have been bitten by the travel bug and can't wait to explore the world.”라는 문장을 작은 의미단위로 나눈다면 “While / some people / prefer to stay / in the comfort / of their own home, / others / have been bitten / by the travel bug / and / can't wait / to explore / the world.” 이렇게 12개의 의미단위로 나눌 수 있고, 큰 의미단위로 나눈다면 “While some people prefer to stay / in the comfort of their own home, / others have been bitten by the travel bug / and can't wait to explore the world.” 이렇게 4개의 의미 단위로 나눌 수 있다.
In the present invention, the semantic unit is a set of words constituting one meaning constituting a sentence. For example, if you break down the sentence "While some people prefer to stay in the comfort of their own home, It is possible to divide into 12 semantic units like this. "Some people / prefer to stay / in the comfort / of their own home, / others / have been bitten / by the travel bug / If you divide by the big meanings, "While some people prefer to stay / in the comfort of their own home, / others have been bitten by the travel bug / .

도 1은 본 발명의 실시 예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치의 구성을 나타낸 블록도이다.
FIG. 1 is a block diagram showing a configuration of a language education learning apparatus using pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.

도 1을 참조하면, 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 (100)는 문장, 문장과 관련된 문장 데이터, 문장과 관련된 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터가 저장된 저장부(104)와, 문장 선택 및 문장 입력을 위한 입력부(102)와, 학습자가 선택한 문장의 학습이 시작되면 문장을 의미단위로 나누어, 문장이 의미단위로 순차적 표시되고, 표시된 문장과 관련된 이미지 데이터와 문장 데이터가 표시되는 표시부(114)와, 학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부(106)와, 상기 오디오 처리부(106)를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부(108) 및 음성 파형 처리부(110)와, 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부(112)와, 상기 카메라부(112)로부터 입력된 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상의 포커스와 사이즈를 규격화하기 위한 영상 처리부(116)와, 상기 영상 처리부(116)를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부(104)에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부(108) 와 음성 파형 처리부(110)를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부(122)와, 상기 제어부(122)가 인터넷 웹 브라우저의 화면에 표시되는 문장 중 상기 저장부(104)에 저장된 문장과 일치하는 문장을 의미단위로 나누고, 문장이 의미단위로 순차적 표시할 수 있도록 하는 유무선 네트워크부(118)와, 상기 제어부(122)가 DMB 영어 방송에서 나오는 문장 중 상기 저장부(104)에 저장된 문장과 일치하는 문장을 의미단위로 나누고, 문장이 의미단위로 순차적 표시할 수 있도록 하는 DMB 모듈부(120)로 구성된다.
Referring to FIG. 1, a language teaching learning apparatus 100 using speech units of a meaning unit and native speakers includes a storage unit (not shown) storing sentence data, sentence data related to sentences, image data related to sentences, pronunciation images of native speakers, 104), an input unit (102) for selecting a sentence and inputting a sentence, and a display unit (102) for dividing the sentence into semantic units when the learning of the sentence selected by the learner is started and sequentially displaying the sentence in semantic units, An audio processing unit 106 for receiving a learner's voice when a learner pronounces a sentence to be displayed at the time of learning a sentence, and an audio processing unit 106 for analyzing the audio inputted through the audio processing unit 106 A speech analysis module 108 for comparing and analyzing the waveform of the native speech with the waveform of the input speech, A camera unit 112 for collecting a position image of a tooth and a tongue of a learner, a facial muscle change and lips of a learner, A shape of a lips and a shape of a lips and a shape of a tooth and a tongue of a learner in a pronunciation of a sentence of a normalized learner through the image processing unit 116. [ And displays the waveforms processed by the speech analysis module unit 108 and the sound waveform processing unit 110 and the sound waveforms of the native speakers stored in the storage unit 104, The control unit 122 controls the display unit 122 to display "good" when the similarity is 50% or more and "bad" when the similarity is less than 50% A wire / wireless network unit 118 dividing a sentence matching the sentence stored in the storage unit 104 into meaning units and sequentially displaying the sentence in a semantic unit, and a control unit 122 And a DMB module 120 dividing sentences matching the sentences stored in the storage unit 104 among the sentences of the DMB English broadcast into semantic units and sequentially displaying the sentences in semantic units.

도시되진 않았지만, 상기 표시부(114)의 화면을 좌/우로 구분하여 좌측에 인터넷 웹 브라우저의 화면 또는 DMB 방송 영상을 표시하고, 우측에 상기 저장부(104)에 저장된 문장과 일치하는 문장을 표시하여 학습자가 학습을 원하는 문장을 선택하면 상기 저장부(104)에 저장된 이미지 데이터와 문장 데이터와 원어민 발음 시 영상이 재생되도록 하는 것이 바람직하다.
Although not shown, a screen of the Internet web browser or a DMB broadcast image is displayed on the left side of the screen of the display unit 114, and a sentence matching the sentence stored in the storage unit 104 is displayed on the right side When the learner selects a sentence to be learned, it is preferable that the image data, sentence data and native pronunciation images stored in the storage unit 104 are reproduced.

이는, 학습자가 인터넷 웹 브라우저의 화면 또는 DMB 영어 방송을 통해 문장의 학습 상태를 확인해볼 수 있으며, 알아듣지 못했던 문장을 체크하고 복습할 수 있는 효과가 있다.
This has the effect that the learner can check the learning status of the sentence through the screen of the Internet web browser or the DMB English broadcast, and can check and review sentences that have not been received.

도시되진 않았지만, 외국어 학습서적 또는 컴퓨터, 스마트폰, 테블릿pc, pmp 등 디스플레이를 통해 출력되는 외국어 학습프로그램에 증강 현실을 구현하기 위한 마커를 표기하고, 상기 카메라부(112)를 통해 해당 마커를 수집하여, 저장부(104)에 저장된 문장, 문장과 관련된 문장 데이터, 문장과 관련된 이미지 데이터, 원어민의 발음 영상 및 음성 파형 데이터 중 해당 마커와 관련된 각각의 데이터가 화면을 통해 재생되도록 하는 것이 바람직하다.
Although not shown, a marker for implementing an augmented reality is written in a foreign language learning book or a foreign language learning program output through a display such as a computer, a smart phone, a tablet pc, or a pmp, and the marker is displayed through the camera unit 112 It is preferable that each piece of data related to the corresponding marker among the sentence stored in the storage unit 104, the sentence data related to the sentence, the image data related to the sentence, the pronunciation image of the native speaker, and the sound waveform data are reproduced through the screen .

이는, 학습자가 학습 시 즉각적으로 학습과 관련된 데이터를 제공받고, 발음학습에도 도움이 되는 효과가 있다.
This has the effect that the learner is immediately provided with the data related to the learning at the time of learning and also helps the pronunciation learning.

의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 (100)는 컴퓨터 단말기, 테블릿 PC, 어학기 및 스마트폰을 포함하며, 상기 입력부(102)는 상기 학습장치(100)의 키 패드 또는 터치 스크린 모듈 및 터치 팬을 포함한다.
The learning unit 100 includes a computer terminal, a tablet PC, a language school, and a smart phone. The input unit 102 is connected to a keypad or a touch screen of the learning apparatus 100, Modules and touch fans.

상기 오디오 처리부(106)는 음성 입력 및 출력과 미디어 출력이 가능하도록 마이크(microphone)와 스피커를 포함한다.
The audio processing unit 106 includes a microphone and a speaker to enable audio input, output, and media output.

학습자가 학습하고자 하는 학습이 시작되면, 도 3,4에서와 같이, Home 텝(10)에 문장을 연상시킬 수 있는 이미지 데이터(11), 원어민의 문장 발음 시 얼굴(12), 의미단위로 나누어 표기된 문장과 문장 데이터(13), 원어민의 문장 발음 시 입술의 모양 그리고 치아와 혀의 위치 모양(14), 학습자의 문장 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치 모양(15), 원어민의 음성 파형(16) 및 학습자의 음성 파형(17)이 표시되고 하단에 Next, Repeat, Slow 버튼과 녹음 및 재생 버튼이 표시된다.
As shown in FIGS. 3 and 4, when the learner starts learning, the image data 11 that can remind the sentence in the Home tab 10, the face 12 in the pronunciation of the sentence of the native speaker, (14), the shape of the face or lips when pronouncing the sentence of the learners, the shape of the tooth and tongue (15), the position of the native speaker And the loudspeaker waveform 17 of the learner are displayed, and the Next, Repeat, Slow buttons and the recording and reproducing buttons are displayed at the lower end.

우선, 의미단위로 나누어 표기된 문장이 관련된 이미지 데이터, 문장 데이터와 함께 표시됨과 동시에 해당 문장을 발음하는 원어민의 문장 발음 시 동영상이 재생된다.
First, a sentence divided into meaning units is displayed together with associated image data and sentence data, and at the same time, a moving picture is reproduced when a native speaker who pronounces the sentence pronounces a sentence.

이후, 표시되진 않았지만 학습자의 음성을 입력 받을 수 있도록 팝업메뉴를 띄워 학습장치(100)에 구비된 카메라를 바라보며 해당 문장을 발음하도록 한다.
Thereafter, a pop-up menu is displayed so that the learner's voice can be input even though it is not displayed, and the corresponding sentence is pronounced by looking at the camera provided in the learning apparatus 100. [

음성 녹음 및 영상 촬영이 완료되면, 해당 문장에 대한 원어민의 문장 발음 시 입 부분이 확대된 발음 동영상과 학습자의 녹화된 발음 동영상이 재생 되도록 한다
When the voice recording and the video recording are completed, the pronunciation video in which the mouth part is enlarged and the recorded pronunciation video of the learner are reproduced in the sentence pronunciation of the native speaker

영상 처리부(116)는 해당 화면의 프레임에 입 모양이 표시될 수 있도록 영상을 가공하여 규격화할 수 있는 프로그램이 탑재되는 것이 바람직하며, 녹화된 영상이 데이터로 활용될 수 없는 경우 재녹화될 수 있도록 학습자에게 요구사항을 팝업메뉴 형태로 표시하는 것이 바람직하다.
Preferably, the image processing unit 116 includes a program that can process and standardize an image so that a mouth shape can be displayed on a frame of the corresponding screen. If the recorded image can not be utilized as data, It is desirable to display the requirements to the learner in the form of a pop-up menu.

또한, 학습자의 발음 영상 재생은 녹화방식이 아닌 현재 학습자의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치가 카메라를 통해 실시간으로 입력되어 표시되도록 함으로써, 학습자가 본인의 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치를 직접 화면을 통해 확인하면서 원어민의 발음 모양과 같아지도록 연습할 수 있도록 하는 것이 바람직하다.
In addition, the pronunciation video reproduction of the learner allows the learner's facial muscle change, lips shape, and tooth and tongue position to be inputted and displayed in real time through the camera, not by the recording method, Shape, and position of the teeth and tongue directly on the screen, so that it can be practiced to be the same as the pronunciation of the native speaker.

이때, 음성 분석 모듈부(108)에서 학습자의 음성을 분석하고, 분석된 데이터를 토대로 음성 파형 처리부(110)를 통해 파형으로 변환시켜 원어민 음성 파형과 비교할 수 있도록 표시한다.
At this time, the voice analysis module 108 analyzes the learner's voice and converts the learner's voice to a waveform through the voice waveform processor 110 based on the analyzed data, so that the voice waveform can be compared with the native voice waveform.

도 5는 본 발명의 실시 예에 따른 Dic 텝에서의 단어의 사전 상 정보를 표시한 예를 나타낸 도면이다.
5 is a diagram showing an example of displaying dictionary information of a word in a Dic tab according to an embodiment of the present invention.

도 5에 도시된 바와 같이, Dic 텝(20)을 선택하면 단어를 검색하여 단어의 사전적 의미와 예문 등을 확인할 수 있다.
As shown in FIG. 5, if the user selects the Dic tab 20, words can be searched to confirm the dictionary meaning and example sentences of the words.

도 6는 본 발명의 실시 예에 따른 Option 텝에서의 언어학습 옵션 선택목록의 예를 나타낸 도면이다.
6 is a diagram illustrating an example of a language learning option selection list in an Option tab according to an embodiment of the present invention.

도 6에 도시된 바와 같이, 상기 Option 텝(30)은 문장을 연상 시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 문장 발음 시 영상 및 음성 재생과 학습자의 문장 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 액센트 표기 및 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택과, 1회 최소 의미단위 출력 횟수 선택과, 의미단위 출력 시간 선택 메뉴로 구성되며 표시되는 방식을 학습자가 선택할 수 있도록 하여 학습자가 자신에게 가장 적합한 방식으로 조절할 수 있도록 한다.
As shown in FIG. 6, the Option tab 30 is used to select whether to display the image data that can remind the sentence, whether to display video and audio when playing a sentence of a native speaker, And selecting the number of times, selecting accent marking and pronunciation marking, selecting the gender of the voice output, selecting the pronunciation voice output for each country, selecting the pronunciation correction test mode, selecting the least significant unit output number of times, And a time selection menu, so that the learner can select the manner in which it is displayed so that the learner can adjust it in a manner most appropriate for the learner.

도 7은 본 발명의 실시 예에 따른 객관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면이고, 도 8은 본 발명의 실시 예에 따른 주관식 형태의 문장 구성 테스트 방식의 예를 나타낸 도면이다.
FIG. 7 is a diagram illustrating an example of a multiple choice sentence configuration test method according to an embodiment of the present invention, and FIG. 8 illustrates an example of a sentence type configuration test method according to an exemplary embodiment of the present invention.

도 7 내지 도 8에 도시된 바와 같이, 문장 구성 테스트 방식은 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 객관식으로 답을 선택할 수 있도록 표시하거나, 원어민의 발음으로 문제를 제시하고 학습자가 해당 단어 및 문장을 입력하도록 하여 정답을 확인하는 방식을 사용할 수 있다.
As shown in FIGS. 7 to 8, the sentence configuration test method can present a problem with either Korean text, English text, Korean speech output, or English speech output, and can display the answer in a multiple choice manner, You can use the method to present the problem and let the learner enter the word and sentence to confirm the correct answer.

학습자가 단어 및 문장을 입력하는 방식은 객관식인 경우 손가락이나 터치펜으로 번호를 선택하거나 키패드로 번호를 입력할 수 있으며, 단어 및 문장을 직접 입력하는 경우에는 손가락 또는 터치펜으로 직접 단어 및 문장을 적거나 키패드로 단어 및 문장을 입력할 수 있다.
The way the learner enters the words and sentences can be a multiple choice with a finger or a touch pen or a number with the keypad if you have multiple choices. If you enter words and sentences directly, You can enter words and phrases with or without a keypad.

도 9는 본 발명의 실시예에 따른 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법의 흐름도이다.
9 is a flowchart of a language education learning method using the pronunciation units of a meaning unit and a native speaker according to an embodiment of the present invention.

도 9를 참조하면, 먼저 입력부(102)를 통해 학습자는 학습하고자 하는 문장을 선택한다(S200).
Referring to FIG. 9, a learner selects a sentence to be learned through the input unit 102 (S200).

상기 입력부(102)를 통한 학습 레벨 선택이 완료되면, 표시부(114)의 Home(10)에 선택된 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터, 문장 데이터, 해당 문장의 원어민 발음 시 영상이 표시 및 재생된다(S202).
When the learning level selection through the input unit 102 is completed, the selected sentences are displayed on the Home 10 of the display unit 114 in the form of semantic units and are sequentially displayed. The image data, sentence data, The time image is displayed and reproduced (S202).

이후, 오디오 처리부(106)를 통해 학습자의 문장 발음 시 음성을 입력받고, 카메라부(112)를 통해 학습자의 발음 시 얼굴 영상을 취득한다(S204).
Then, the learner's voice is input through the audio processing unit 106, and the face image is acquired through the camera unit 112 (S204).

저장부(104)에 저장된 원어민의 발음 시 영상이 재생되고, 영상 처리부(116)를 통해 포커스와 사이즈가 규격화된 학습자의 발음 시 영상이 재생되도록 한다(S206).
(Step S206). In this way, the learner's pronunciated image of the learner, whose focus and size are standardized, is reproduced through the image processing unit 116 (S206).

학습자의 발음 시 영상에 있어서는 학습자마다 문장을 발음할 때 카메라와의 거리, 학습자마다 영상에서 차지하는 얼굴 사이즈 등이 달라지게 되는 것이 일반적이다.
In the case of the learner's pronunciations, the distance between the learner and the camera, and the face size occupied by the learner are different for each learner.

따라서, 상기 영상 처리부(116)는 학습자의 얼굴 형태를 인식하고 프레임에서 얼굴 형태가 차지하는 사이즈로 확대 또는 축소하여 규격화된 포커스와 사이즈로 학습자의 발음 시 영상이 보여질 수 있도록 하는 것이 바람직하다.
Accordingly, the image processing unit 116 preferably recognizes the learner's face shape and enlarges or reduces the size of the learner's face in the frame so that the learner's pronunciation image can be displayed with the normalized focus and size.

이때, 학습자의 발음 시 영상 재생은 녹화 재생 또는 실시간 재생 방식을 적용할 수 있다.
At this time, the learner can apply the recording reproduction or the real time reproduction method to the image reproduction upon pronunciation.

그리고, 상기 오디오 처리부(106)를 통해 입력된 학습자의 음성 데이터를 음성 분석 모듈부(108)에서 분석하여 음성 파형 처리부(110)를 통해 파형으로 변환하여 표시될 수 있도록 한다(S208).
The speech analysis module 108 analyzes the speech data of the learner input through the audio processing unit 106 and converts the waveform into a waveform through the speech waveform processor 110 to be displayed (S208).

학습자의 음성 파형은 저장부(104)에 저장된 원어민의 음성 파형과 비교될 수 있도록 나란히 표시하고, 원어민이 어느 부분을 강하게 발음하는지를 학습자가 확인할 수 있도록 한다.
The learner's voice waveform is displayed side by side so that it can be compared with the voice waveform of the native speaker stored in the storage unit 104 so that the learner can confirm which part of the learner's voice is strongly pronounced.

파형은 음의 진동 모양을 시간 차이로 나누어 표시할 때 생기는 파장의 형태로써, 음성 파형은 문장을 발음할 때의 액센트와 리듬을 확인할 수 있는 중요한 요소가 된다.
A waveform is a type of wavelength that occurs when the waveform of a sound is displayed divided by time difference. A voice waveform is an important factor for confirming the accent and rhythm when a sentence is pronounced.

상기와 같이, 학습자가 원하는 학습을 원하는 문장을 선택하여 학습을 시작하면, 해당 문장이 의미단위로 나뉘어 순차적으로 표시되고, 문장과 관련된 이미지 데이터와 문장 데이터도 순차적으로 표시되며, 원어민의 발음 시 동영상이 표시되고, 학습자의 발음 시 음성과 영상을 입력 받아 원어민의 발음 시 영상과 비교할 수 있도록 하며, 원어민의 음성 파형과 학습자의 음성 파형을 비교할 수 있도록 하여 정확한 발음 교정 및 정확한 액센트를 익힐 수 있는 효과가 있다.
As described above, when the learner selects a desired sentence to start learning, the sentence is divided into meaning units and displayed sequentially, and image data and sentence data related to the sentence are also displayed sequentially, And the learner's pronunciation can be compared with the pronunciation of the native speaker by inputting the voice and video and comparing the voice waveform of the native speaker with the voice waveform of the learner so that the correct pronunciation and correct accent can be learned .

이상에서는 학습자가 학습하는 언어가 영어인 경우를 예로 들어 설명하였으나 영어 외에 중국어, 일본어, 독일어, 불어 등의 다른 외국어에도 본 발명이 적용될 수 있음은 물론이다.In the above, the case where the learner learns English is described as an example, but it goes without saying that the present invention can also be applied to other languages such as Chinese, Japanese, German, French and so on.

100 : 언어 학습 장치 102 : 입력부
104 : 저장부 106 : 오디오 처리부
108 : 음성 분석 모듈부 110 : 음성 파형 처리부
112 : 카메라부 114 : 표시부
116 : 영상 처리부 118 : 유무선 네트워크부
120 : DMB 모듈부 122 : 제어부
100: language learning apparatus 102: input unit
104: storage unit 106: audio processing unit
108: Voice analysis module 110: Voice waveform processor
112: camera section 114: display section
116: image processing unit 118: wired / wireless network unit
120: DMB module unit 122:

Claims (9)

의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치에 있어서, 문장과 문장과 관련된 액센트, 문장과 관련된 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻, 문장을 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상, 원어민 발음 영상 및 음성 파형 데이터가 저장된 저장부; 문장 선택 및 문장 입력을 위한 입력부; 선정된 문장의 학습이 시작되면 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시되고, 표시된 문장과 관련된 액센트, 문장과 관련된 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻과 문장을 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상 표시되는 표시부; 학습자가 문장 학습 시 표시된 문장을 발음할 경우에 학습자의 음성을 입력받기 위한 오디오 처리부; 상기 오디오 처리부를 통해 입력된 음성을 분석하고, 파형으로 변환하며, 입력된 음성에 대해 원어민 음성의 파형과 유사도를 비교 분석하기 위한 음성 분석 모듈부 및 음성 파형 처리부; 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상을 수집하기 위한 카메라부; 상기 카메라부로부터 입력된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상 데이터의 포커스와 사이즈를 규격화하기 위한 영상 처리부; 및 상기 영상 처리부를 통해 규격화된 학습자의 문장 발음 시 얼굴 근육 변화 및 입술의 모양 그리고 치아와 혀의 위치 영상과 상기 저장부에 저장된 원어민의 문장 발음 시 영상을 비교하여 표시하고, 상기 음성 분석 모듈부와 음성 파형 처리부를 통해 처리된 파형과 저장된 원어민의 음성 파형을 표시하고, 유사도를 비교하여 50% 이상 유사 시 “good”, 50% 미만 유사 시 ”bad”를 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치.
In the device for teaching language learning using the unit of meaning and pronunciation data of native speakers, accents related to sentences and sentences, pronunciation symbols related to sentences, images interpreted in the language of the country in which the sentence is learned, An animation or image, a native speech image, and sound waveform data; An input unit for selecting sentences and inputting sentences; When the learning of the selected sentence begins, the sentence is divided into semantic units, and sentences are sequentially displayed in the semantic unit. Accents related to the displayed sentences, phonetic symbols related to the sentences, sentences interpreted in the language of the country A display unit that displays an image or an animation or an image that can be reminiscent; An audio processing unit for receiving a learner's voice when a learner pronounces a sentence displayed at the time of learning the sentence; A voice analysis module for analyzing the voice inputted through the audio processor and converting the voice into a waveform and comparing and analyzing the waveform of the native voice with the similarity of the native voice; A camera unit for collecting a positional image of a tooth and a tongue of a lips and a change of a facial muscle when a student pronounces a sentence; An image processing unit for normalizing a face muscle change and a shape of a lips and a focus and a size of positional image data of a tooth and a tongue when a learner inputs a sentence from the camera unit; And a display unit for comparing and displaying the facial muscle change, the shape of the lips, the position image of the teeth and the tongue, and the sentence pronunciations of the native speakers stored in the storage unit when the learner's pronunciation is standardized through the image processing unit, And a control unit for displaying the waveform processed by the speech waveform processing unit and the speech waveform of the stored native speaker, comparing the similarity levels, and controlling to display "good" when the similarity is 50% or more and "bad" when the similarity is less than 50% A language teaching learning device using characteristic unit and pronunciation data of native speakers.
제 1항에 있어서, 상기 제어부가 인터넷 웹 브라우저의 표시되는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 유무선 네트워크부를 더 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치.The mobile communication terminal according to claim 1, further comprising a wired / wireless network unit for allowing the control unit to divide the sentences matching the sentences stored in the storage unit among the displayed sentences of the Internet web browser into semantic units, A language teaching learning device using characteristic unit and pronunciation data of native speakers. 제 1항에 있어서, 상기 제어부가 DMB 영어방송에서 나오는 문장 중 상기 저장부에 저장된 문장과 일치하는 문장을 의미단위로 나누어 문장이 의미단위로 순차적 표시할 수 있도록 하는 DMB 모듈부를 더 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치.[2] The apparatus of claim 1, further comprising a DMB module unit for dividing a sentence matching the sentence stored in the storage unit among the sentences of the DMB English broadcast, Language teaching and learning device using unit and pronunciation data of native speakers. 제 1항에 있어서, 상기 표시부의 레이어(layer)는 Home, Dic 및 Option 텝으로 구분되는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치.The apparatus of claim 1, wherein the layer of the display unit is divided into Home, Dic, and Option tabs. 제 4항에 있어서, 상기 Home 텝에는 의미단위로 나뉘어 순차적으로 표시되는 문장과 문장을 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상, 문장과 관련된 액센트, 문장과 관련된 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻, 원어민의 문장 발음 시 얼굴, 원어민의 문장 발음 시 입술의 모양 그리고 치아와 혀의 위치 모양, 학습자의 문장 발음 시 얼굴 또는 입술의 모양 그리고 치아와 혀의 위치 모양, 원어민의 음성 파형 및 학습자의 음성 파형 중 적어도 어느 하나를 표시하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치.[Claim 4] The method of claim 4, wherein the Home tab is a country that learns a sentence sequentially divided by semantic units and an image or an animation or an image associated with the sentence, an accent related to the sentence, The face of the learner, the position of the tooth and tongue, the shape of the tooth and tongue, the shape of the tooth and tongue, the shape of the tooth and tongue, the voice of the native speaker Wherein the display unit displays at least one of a waveform, a waveform, and a speech waveform of a learner. 제 4항에 있어서, 상기 Option 텝은 문장을 연상시킬 수 있는 이미지 데이터 표시 여부 선택과, 원어민의 문장 발음 시 영상 및 음성 재생과 학습자의 문장 발음 시 영상 및 음성 재생 횟수의 여부 및 횟수 선택과, 액센트 표기 및 발음 기호 표기 여부 선택과, 음성 출력의 성별 선택과, 국가별 발음 음성 출력 선택과, 발음 교정 테스트 모드 선택과, 1회 최소 의미단위 출력 횟수 선택과, 의미단위 출력 시간 선택 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법.5. The method of claim 4, wherein the option step comprises selecting whether to display image data capable of reminding a sentence, selecting whether to display the image and voice when playing a sentence of a learner, At least one of selecting the accent marking and pronunciation marking selection, the gender selection of voice output, the pronunciation voice output selection by country, the pronunciation correction test mode selection, the one-time minimum significance unit output frequency selection, And a language learning learning apparatus and method using pronunciation units of a native speaker and a native speaker. 제 1항에 있어서, 상기 제어부는 문장 구성 테스트에서 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 객관식으로 답을 선택할 수 있도록 표시하도록 제어하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법.3. The method according to claim 1, wherein the control unit controls the display unit to display a question in a sentence configuration test by presenting a problem in any one of Hangul text, English text, Korean speech output, and English speech output, And apparatus and method for language education learning using native pronunciation data. 제 1항에 있어서, 상기 제어부는 문장 구성 테스트에서 한글 텍스트, 영문 텍스트, 한글 음성 출력 및 영문 음성 출력 중 어느 하나로 문제를 제시하고 주관식으로 답을 선택할 수 있도록 표시하도록 제어하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습장치 및 방법.2. The method according to claim 1, wherein the control unit controls to display a problem in any one of Hangul text, English text, Korean speech output, and English speech output in a sentence configuration test, And apparatus and method for language education learning using native pronunciation data. 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법에 있어서, 학습자로부터 학습할 문장의 선택 명령이 입력되는 단계; 상기 선택된 문장이 의미단위로 나뉘어진 문장이 순차적으로 표시되고, 문장을 연상시킬 수 있는 이미지 또는 애니메이션 또는 영상, 문장과 관련된 액센트, 문장과 관련된 발음기호, 문장에 대하여 학습하는 국가의 언어로 해석된 뜻, 원어민 발음 시 영상이 표시되는 단계; 상기 표시된 문장에 따른 학습자의 문장 발음 시 음성 및 영상이 입력되는 단계; 원어민의 문장 발음 시 영상 및 학습자의 문장 발음 시 영상이 표시되어 재생되는 단계; 및 원어민 음성 파형과 학습자 음성 파형의 비교 화면이 표시되는 단계; 원어민 음성 파형과 학습자 음성 파형의 비교 유사도가 50% 이상이면 “good” 50% 미만이면 “bad”를 표시하는 단계를 포함하는 것을 특징으로 하는 의미단위 및 원어민의 발음 데이터를 이용한 언어교육 학습방법.
A method of learning language learning using pronunciation units of meaning units and native speakers, the method comprising: inputting a selection command for a sentence to be learned from a learner; The selected sentence is sequentially displayed in the form of a sentence divided into semantic units, and an image or an animation or image capable of reminding the sentence, accents related to the sentence, pronunciation symbols related to the sentence, A step of displaying an image when pronunciating a native speaker; Inputting a voice and an image when a learner is pronunciating a sentence according to the displayed sentence; A step of displaying a picture when a native speaker pronounces a sentence and a picture displayed when a sentence of a learner is pronounced and reproduced; And displaying a comparison screen of the native speech waveform and the learner speech waveform; And displaying the word " bad " when the similarity of the native speech waveform and the learner speech waveform is " good " if the similarity is 50% or more and less than 50%, respectively.
KR1020130000019A 2013-01-01 2013-01-01 Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit Withdrawn KR20140087953A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130000019A KR20140087953A (en) 2013-01-01 2013-01-01 Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130000019A KR20140087953A (en) 2013-01-01 2013-01-01 Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit

Publications (1)

Publication Number Publication Date
KR20140087953A true KR20140087953A (en) 2014-07-09

Family

ID=51736780

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130000019A Withdrawn KR20140087953A (en) 2013-01-01 2013-01-01 Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit

Country Status (1)

Country Link
KR (1) KR20140087953A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200033066A (en) * 2018-09-19 2020-03-27 강철희 method for educating English using image and service system therefor
WO2025037695A3 (en) * 2023-08-14 2025-09-12 (주)사운더스트리 Image content automatic generation-based smart education system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200033066A (en) * 2018-09-19 2020-03-27 강철희 method for educating English using image and service system therefor
WO2025037695A3 (en) * 2023-08-14 2025-09-12 (주)사운더스트리 Image content automatic generation-based smart education system

Similar Documents

Publication Publication Date Title
CN111739556B (en) Voice analysis system and method
KR102043419B1 (en) Speech recognition based training system and method for child language learning
CN109903594A (en) Spoken language exercise householder method, device, equipment and storage medium
JP6656529B2 (en) Foreign language conversation training system
KR20140087956A (en) Apparatus and method for learning phonics by using native speaker's pronunciation data and word and sentence and image data
KR20140078810A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR20140075994A (en) Apparatus and method for language education by using native speaker's pronunciation data and thought unit
KR20140107067A (en) Apparatus and method for learning word by using native speakerpronunciation data and image data
KR20140079677A (en) AND METHOD FOR LEARNING LEARNING USING LANGUAGE DATA AND Native Speaker's Pronunciation Data
KR20140087953A (en) Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit
KR20140087951A (en) Apparatus and method for learning english grammar by using native speaker's pronunciation data and image data.
KR20140073768A (en) Apparatus and method for language education using meaning unit and pronunciation data of native speakers
KR20140028527A (en) Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word
JP2014038140A (en) Language learning assistant device, language learning assistant method and language learning assistant program
KR20140074459A (en) Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data
KR101681673B1 (en) English trainning method and system based on sound classification in internet
KR20140087950A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR20140079245A (en) Apparatus and method for learning rhythm patterns using language data and pronunciation data of native speakers
KR20140082127A (en) Apparatus and method for learning word by using native speaker's pronunciation data and origin of a word
KR20140074457A (en) Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit and image data
KR20140078077A (en) Apparatus and method for language education by using native speaker's pronunciation data and thoughtunit
KR20140087959A (en) Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data
KR20140087955A (en) Apparatus and method for learning English prepositions using image data and pronunciation data of native speakers
KR20140078080A (en) Apparatus and method for learning word by using native speaker's pronunciation data and syllable of a word and image data
KR20140087957A (en) Apparatus and method for Language Pattern Education by using sentence data.

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130101

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid