[go: up one dir, main page]

JP4034025B2 - Video equipment with learning function - Google Patents

Video equipment with learning function Download PDF

Info

Publication number
JP4034025B2
JP4034025B2 JP2000078669A JP2000078669A JP4034025B2 JP 4034025 B2 JP4034025 B2 JP 4034025B2 JP 2000078669 A JP2000078669 A JP 2000078669A JP 2000078669 A JP2000078669 A JP 2000078669A JP 4034025 B2 JP4034025 B2 JP 4034025B2
Authority
JP
Japan
Prior art keywords
learning
data
voice
signal
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000078669A
Other languages
Japanese (ja)
Other versions
JP2000298493A (en
Inventor
原 旭 劉
相 錫 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LG Electronics Inc
Original Assignee
LG Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LG Electronics Inc filed Critical LG Electronics Inc
Publication of JP2000298493A publication Critical patent/JP2000298493A/en
Application granted granted Critical
Publication of JP4034025B2 publication Critical patent/JP4034025B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は映像機器に関するもので、特に、学習機能を有する映像機器およびその制御方法に関する。
最近、各種の映像機器、そのうち最も代表的な例としてテレビジョン装置などは、本来の目的である映像および音声方法の外に、ユーザの多様な欲求を充足させるための種々の付加機能を追加して、製品の競争力を向上させるための努力が為されている。学習機能も上述の種々の付加機能中の1つであって、各種の映像機器に適用されている。
【0002】
【従来の技術】
従来の技術による学習機能を有する映像機器の一例としてのテレビジョン装置は図9に示すように、アンテナを介して受信されるCVBS(Composite Video Blanking Signal)、即ち、複合映像信号を選局するためのチューナ1、チューナ1を介して選局された複合映像信号のうち放送信号をY/U/V信号に分離するY/C分離部2、チューナ1を介して選局された放送信号から同期信号を分離する同期信号分離部3、同期信号分離部3から分離された同期信号に従ってOSDまたはキャプションデータの表示を制御するマイクロコンピュータ4と、動作プログラムなどを記憶させておくためのEEPROM(Electrically Erasable & Programmable Read-Only Memory)5と、マイクロコンピュータ4のスイッチング信号によりOSDまたはキャプションデータを選択して出力させるビデオスイッチ6と、映像処理および偏向処理を行なう映像/偏向処理部7と、表示部としてのCPT(Color Picture Tube)8と、チューナ1を介して選局された放送信号のうちキャプション情報を処理するキャプション処理部9と、学習レベル別に所定の単語データを記憶している学習用データベース11と、キャプション処理部9と学習用データベース11間のデータ交換のためのインターフェース部10とを含んで構成されている。
【0003】
ここで、キャプション処理部9は、同期信号分離部3から出力された同期信号に従って、チューナ1により選局された放送信号からキャプション情報を抽出するデータスライサ(Date Slicer)12と、キャプション情報処理を制御するキャプション制御部14と、キャプション情報を復号化するキャプションデコーダ13と、英語,ハングル語および日本語等の言語に対応するフォントとフォント処理プログラム等を格納するフォントROM/プログラムROM/データRAM15から構成されている。
【0004】
このように構成された従来技術に係る映像機器における学習機能を実行する動作について以下に説明する。
ユーザが学習機能を「オン」にすると、マイクロコンピュータ4はユーザからの学習機能の設定内容、即ちユーザが設定した学習レベル、スタート番号または表示位置などに対応するデータのアドレスを指定してキャプション制御部14に制御信号を供給し、該当するデータを学習用データベース11から読み込む。
したがって、キャプション制御部14は、フォントROM/プログラムROM/データRAM15から設定されたデータに対応するフォントをマッチングさせて学習データを読み込み、読み込んだ学習データをインターフェース部10を介してビデオスイッチ6に入力させる。
【0005】
次いで、マイクロコンピュータ4はビデオスイッチ6に制御信号を出力してスイッチをオンさせて、該当する学習用データが映像/偏向処理部7に出力されるようにし、該当する学習用データである単語が、映像/偏向処理部7を経由してCPT8上に出力される。
【0006】
一方、放送信号に含まれてチューナ1により受信された音声信号は、トーン調節部16およびアンプ17を経由して信号処理され、該当する映像に同期させられてスピーカ18を介して音声として出力される。
【0007】
しかし、このような従来の技術による学習機能を有する映像機器は所定の単語だけが画面上に表示され、その単語に対応する音声が出力されないため、単語に該当する発音を聞くことはできない。したがって、ユーザの学習意欲を満足させることができないことは勿論として、ユーザが学習する能率を低下させるという問題があった。
【0008】
【発明が解決しようとする課題】
本発明は、上述した従来の問題点を解決するために為されたものであって、学習用単語を画面上に表示すると同時に、その単語に対応する音声をその単語に同期して出力させることにより、学習能率を高めることができるようにした学習機能を有する映像機器およびその制御方法を提供することを目的としている。
【0009】
【課題を解決するための手段】
上記目的を達成するために、本発明の第1の基本構成に係る学習機能を有する映像機器は、発音記号を含む学習データを記憶する学習用データベースと、表示用の画面に画像データとして表示するために、放送信号に含まれる字幕データおよび前記学習用データベースに記憶された前記学習データを字幕処理する字幕処理部と、予め記憶された発音記号別のデジタル音声データを用いて、前記学習データの中の単語に対応するアクセントの音声を合成すると共に、前記学習データに含まれる発音記号アクセントに対応する出力音声の周波数を変調するために対応するアクセントに合うクロックパルスを発生させる複数の発振器を含む音声発生部と、ユーザから音声学習の提供が要求されたときに、前記学習用データベースから該当する前記学習データを読み込んで、ユーザから要求された設定内容に当たる学習データおよびこれに対応する音声が出力されるように前記字幕処理部および前記音声発生部を制御する制御部と、を備えることを特徴とする。
また、上記第1の基本構成に係る学習機能を有する映像機器において、前記音声発生部は、各発音記号別の音声データを記憶している発音記号音声記憶ROMと、前記制御部の制御信号に従って前記発振器により生成されるクロックパルスの中の1つを選択して出力するための周波数スイッチと、前記制御部により前記発音記号音声記憶ROMから選択出力される音声データを、前記周波数スイッチにより選択出力されたクロックパルスに従って合成する音声合成部と、前記音声合成部の出力をアナログに変換して、オーディオスイッチに出力するためのD/A変換器と、を備えるようにしても良い。
【0010】
また、本発明の第2の基本構成に係る学習機能を有する映像機器は、発音記号を含む学習データを記憶する学習用データベースと、表示用の画面に画像データとして表示するために、放送信号に含まれる字幕データおよび前記学習用データベースに記憶された前記学習データを字幕処理する字幕処理部と、予め記憶された発音記号別のデジタル音声データを用いて、前記学習データの中の単語に対応するアクセントの音声を合成すると共に、前記学習データに含まれる発音記号アクセントに対応する出力音声の周波数を変調するために対応するアクセントに合うクロックパルスを発生させる複数の発振器を含む音声発生部と、ユーザにより音声学習の提供が要求されたときに、前記学習用データベースから該当する前記学習データを読み込み、要求された設定内容に当たる学習データおよびこれに対応する音声が出力されるように前記字幕処理部および前記音声発生部を制御する制御部と、前記字幕処理部の字幕信号または前記学習データを入力すると共に、画面上に映像機器を制御するためのOSD信号を入力して、前記制御部の切換信号に従って前記字幕信号、前記学習データ、及び前記OSD信号を選択的に出力させるビデオスイッチと、前記ビデオスイッチからの出力と映像信号を入力すると共に、前記出力および映像信号を画面上に表示させるように映像信号処理する映像処理部と、前記音声発生部からの出力と、音声信号をそれぞれ入力すると共に、前記制御部の切換信号に従って前記ビデオスイッチからの出力および前記映像信号を選択的に出力するオーディオスイッチと、前記オーディオスイッチの出力がスピーカを介して出力可能になるように音声信号処理する音声信号処理部と、を備えることを特徴とする。
【0016】
以下、添付の図面を参照しながら本発明の第1および第2実施形態に係る学習機能を有する映像機器およびその制御方法について詳細に説明する。
(第1実施形態)
本発明のよる学習機能を有する映像機器は、図2に示すように、学習用データベース11に記憶された学習データ、例えば英単語に当たる音声を合成して出力する音声発生部19と、マイクロコンピュータ4の制御信号に従って音声発生部19から出力された音声と放送信号に含まれた音声の中から何れか1つを選択して出力するオーディオスイッチ28と、を除いては、従来の技術の構成と同一であるので、同一構成要素に対しては従来技術と同一符号を付し、重複説明を省略する。
【0017】
ここで、音声発生部19は各英単語の発音記号別音声データを記憶する発音記号音声記憶ROM20と、学習データの発音記号に表れたアクセントに合うよう出力音声の周波数を変調するために、アクセント別クロックパルスを発生させる第1,第2,第3発振器21、22、23と、キャプション制御部14の制御信号に従って前記第1ないし第3発振器21ないし23のクロックパルスのうちから1つを選択して出力するための周波数スイッチ24と、前記キャプション制御部14により発音記号音声記憶ROM20から選択出力される音声データを、前記周波数スイッチ24により選択出力されたクロックパルスに対応するアクセントを付与して合成する音声合成部25と、前記音声合成部25の出力をアナログに変換するためのD/A変換器26およびD/A変換器26の出力を緩衝させて、前記オーディオスイッチ28に出力するためのバッファ27とから構成されている。
【0018】
そして、前記発音記号音声記憶ROM20には、図2に示すような発音記号別音声データが、該当する音声データの検索を容易にするためのインデックスデータと共に、図3に示すような形式により記憶されている。
【0019】
このように構成された本発明の第1実施形態に係る映像機器における学習機能を実行する方法について、図1を参照しながら以下に説明する。
ユーザによって学習モードが設定され、音声学習モードが設定されない場合は(S22)、ユーザの設定内容に対応する学習データ、つまり、意味、発音記号などが含まれた英単語が前記学習用データベース11からインターフェース部10を経由してキャプション制御部14へ伝送され、キャプション制御部14の制御によってキャプション処理され、ビデオスイッチ6を経由してCPT8の画面上に表示される(S23)。
【0020】
一方、ユーザが音声学習モードを設定すると(S22)、マイクロコンピュータ4の制御信号に従ってキャプション制御部14から前記学習データに含まれた各英単語の発音記号を読み込み、その発音記号の各音素別ディジタル音声データを前記発音記号音声記憶ROM20から読み込んで音声合成部25に供給する(S24)。
そして、キャプション制御部14は、マイクロコンピュータ4の制御に基づいて、その英単語の映像データに同期させて、英単語の発音記号に対応するアクセントを表現して音声合成部25を介して出力するように前記周波数スイッチ24を制御する(S25)。
【0021】
即ち、図1において、キャプション制御部14が前記周波数スイッチ24に制御信号を印加して、対応するアクセントに合うクロックパルスを音声合成部25に印加し、音声合成部25は順次入力される各発音記号音素別音声データが第1および第2アクセントを表現できるように、第1ないし第3発振器21、22、23から供給されるクロックパルスに従い音声データを合成して出力する。
このとき、出力される英単語音声データにアクセントを表現する他の方法として、出力される音声データのレベルを調節し各音素別ボリュームレベルを変化させることにより、第1および第2アクセントを表現することもできる。
【0022】
次いで、音声合成部25から出力されたディジタル音声データがD/A変換器26を介してアナログ音声データに変換され、バッファ27を経由してオーディオスイッチ28に入力される。そして、オーディオスイッチ28はマイクロコンピュータ4の制御信号に従って前記バッファ27から出力された音声データを出力する。
【0023】
次いで、前記オーディオスイッチ28から出力された音声データはトーン調節部16によりその音質が調整され、アンプ17により増幅されて、スピーカ18を介して前記画面上に表示される英単語に同期して出力される。したがって、ユーザは英単語およびそれに当たる発音を同時に聴取することができる。また、本発明は音声学習機能をテレビジョン装置に適用した例であって、セットトップボックスを含む各種の映像機器に基本的なキャプション機能や学習機能を連携させて構成することにより容易に適用することができる。
【0024】
(第2実施形態)
本発明の第2実施形態による学習機能を有する映像機器としてのテレビジョン受像装置は、図5に示すように、所定の単語データを記憶するための単語データベース120と、外部の映像信号に含まれたキャプションデータまたは前記単語データベース120に記憶された単語データをキャプション処理するための字幕処理部110と、前記字幕処理部110と単語データベース120のデータ交換のためのインターフェース部130と、前記単語データを発音可能な文字列に変換して分析し、韻律処理された音を合成するための音声発生部140と、ユーザの音声学習機能の要求時に、単語データベース120から該当単語データを読み込み前記字幕処理部110を介してキャプション処理されるようにし、前記キャプション処理された単語データに対応する音声が出力されるように前記音声発生部140を制御するマイクロコンピュータ70と、前記マイクロコンピュータ70の動作プログラムなどを記憶するためのEEPROM60と、前記字幕処理部110から出力された映像信号と前記マイクロコンピュータ70から出力された映像信号または外部の映像信号を画面上に表示可能なように信号処理する映像処理部30と、前記映像処理部30により処理された信号出力を表示するCPT40と、前記音声発生部140の出力と外部の音声信号を前記マイクロコンピュータ70の制御によって選択的に出力させるオーディオスイッチ100と、前記オーディオスイッチ100の出力をスピーカ90により出力可能なように信号処理する音声処理部80と、を含んで構成されている。
【0025】
このとき、字幕処理部110は外部の映像信号からキャプション情報を抽出するためのデータスライサ111と、前記キャプション情報を復号化するためのキャプションデコーダ112と、単語を表現するためのフォントとフォント処理プログラムおよび現在画面上に表示されるキャプション情報の中のユーザの記憶命令に対応するキャプション情報を記憶するためのメモリ部114と、前記マイクロコンピュータ70の制御によって所定のキャプション情報を前記メモリ部114に記憶したり、メモリ部114から読み込んで前記音声発生部140へ伝送し、データスライサ111およびキャプションデコーダ112の動作を制御するためのキャプション制御部113とから構成されている。
【0026】
そして、音声発生部140は各発音別特徴パラメータを記憶するための音声データベース141と、前記単語データを発音可能な文字列に変換して分析し、韻律処理してこれに対応する特徴パラメータを前記音声データベース141から読み込んでディジタル音声信号を生成するための音声プロセッサ142と、前記音声プロセッサ142から生成したディジタル音声信号をアナログ音声信号に変換するためのD/A変換部143およびD/A変換部143からの出力を緩衝するためのバッファ144とから構成されている。
【0027】
このとき、音声プロセッサ142は、図6に示すように、単語データのうちの数字、アルファベット、略字、特殊記号などを発音可能な文字列に定型化するための文字列定型化部142−1と、前記定型化した文字列を分析して句および節の境界点を検出し、多重発音単語の発音を設定するための文字列分析部142−2と、前記文字列分析部142−2から出力された文字列で音節間の連結による発音の変動時、変動した発音に合うように発音記号を変換処理するための発音記号処理部142−3と、前記発音記号処理部142−3から出力された文字列に長さ、強さおよび抑揚の韻律を付与するための韻律処理部142−4と、前記韻律処理部142−4から出力された文字列の発音に当たる特徴パラメータを前記音声データベース141から読み込んで、それに従うディジタル音声信号を合成するための音声生成部142−5とから構成されている。
【0028】
また映像処理部30は、アンテナを介して受信される放送信号を選局するためのチューナ31と、チューナ31により選局されたCVBS(Composite Video Blanking Signal)、即ち複合映像信号のうち放送信号をY/U/V信号に分離するY/C分離部32と、チューナ31により選局された放送信号から同期信号を分離する同期信号分離部33と、映像処理および偏向処理を行なう映像/偏向処理部34と、から構成されている。そして、音声処理部80はトーン調節部81とアンプ82とを含んで構成されている。
【0029】
以下、このように構成された本発明の第2実施形態に係る映像機器の学習機能を実行する方法を図7および図8のフローチャートを参照して説明する。
まず、ユーザは学習機能を行なうために、テレビジョン装置のキーまたはリモコンを操作して、学習機能「オン」命令を入力する。すると、マイクロコンピュータ70は、図7に示すように、学習機能が「オン」となっているか否かを判断する(S41)。
【0030】
次いで、前記の判断結果(S41)、学習機能が「オン」されていれば、ユーザによって設定された学習設定値、つまり、学習レベル/スタート位置/表示位置などを把握する(S42)。そして、前記学習設定値に当たるアドレスの単語データを単語データベース120から読み込む(S43)。
【0031】
次いで、マイクロコンピュータ70は字幕処理部110を制御して、前記単語データを該当フォントに合うようにキャプション処理し、映像処理部30を介して映像処理して、CPT40を介して表示されるようにする(S44)。これと同時にマイクロコンピュータ70は音声発生部140が前記キャプション制御部110を介して単語データを伝送してもらえるようにする。これによって、音声発生部140は前記単語データを発音可能な文字列に変換して分析した後、韻律処理する(S45)。
そして、音声発生部140は韻律処理された文字列を音声データベース141に記憶された該当発音別特徴パラメータを用いて音声合成し、スピーカに出力する(S46)。
【0032】
このとき音声発生部140の詳細な動作を以下に説明する。
即ち、文字列定型化部142−1が前記単語データのうち数字、アルファベット、略字、特殊記号を発音可能な文字列に定型化する。
【0033】
次いで、文字列分析部142−2は前記定型化した文字列を分析して句および節の境界点を検出し、二つ以上の発音を有する単語の適正発音を選定する。
【0034】
そして、発音記号処理部142−3が前記文字列分析部142−2から出力された文字列で音節間の連結による発音の変動時、変動した発音に合うように発音記号を校正する。
【0035】
次いで韻律処理部142−4は前記発音記号処理部142−3から出力された文字列に長さと強さおよび抑揚などの韻律を付与する。
【0036】
そして、音生成部142−5が前記韻律処理された文字列とその発音に当たる特徴パラメータ、つまり、周波数、帯域幅およびエネルギー情報を合成してデジタル音声データを生成する。
【0037】
次いで、前記デジタル音声データはD/A変換器143を介してアナログ音声に変換し、バッファ144を介してスピーカ90に出力されるのである。
【0038】
このように音声出力動作が完了すると、前記画面上に表示された単語の表示周期が設定周期に到達しているかを判断して(S47)、到達していれば単語のスタート番号を増加させ(S48)、表示された単語番号が終了設定番号であるか否かを判断する(S49)。
【0039】
次いで、前記の判断結果(S49)、単語番号が終了設定番号であれば、最初のスタート番号に復帰して(S50)、前記段階(S43)に復帰する。
【0040】
一方、前記の判断結果(S41)、学習機能が「オン」されていない場合は、学習機能「オフ」命令が入力されているかを判断して(S51)、学習機能「オフ」命令が入力されていれば、学習設定値および現在の進行状態を記憶し(S52)、単語および音声出力を中止させる(S53)。また、学習機能「オフ」命令が入力されていなければ、対応する指令を処理する(S54)。
【0041】
また、本発明は表示される単語を必要時に記憶して、希望の時間に該当音声と共に再生させることができる。これを図8に基づいて以下に説明する。
まず、ユーザの所望時に、映像機器、例えばテレビジョン受像装置のキーまたはリモコンのキーを操作して、単語記憶命令または単語再生命令を入力することができる。
したがって、マイクロコンピュータ70は、図8に示すように、単語記憶命令が入力されるかを判断して(S61)、単語記憶命令が入力されると、該当単語を字幕処理部110のメモリ部114に記憶させる(S62)。
【0042】
一方、前記の判断結果(S61)、単語記憶命令が入力されていない場合は、単語再生命令が入力されるかを判断して(S63)、単語再生命令が入力されると、前記キャプション制御部113を制御して、前記メモリ部114に記憶された単語を読み込むようにする(S64)。
【0043】
次いで、字幕処理部110を制御して、前記単語データを該当フォントに合うようにキャプション処理し、映像処理部30により映像処理して、CPT40の画面上に表示されるようにする(S65)。
それと同時に、音声発生部140は前記単語データがキャプション制御部113を介して伝送されるようにし、図7を用いて説明したように、前記単語データを発音可能な文字列に変換して分析した後、韻律処理する(S66)。また、音声発生部140は韻律処理した文字列を音声データベース141に記憶された該当発音別特徴パラメータを用いて音声合成して、スピーカを介して出力する(S67)。
【0044】
なお、上述した第1および第2実施形態に係る学習機能を有する映像機器においては、学習対象としての言語は英語を例にとって説明したが、本発明はこれに限定されず例えばハングル語を学習する場合や日本語を学習する場合であっても本発明を適用することができ、また、その他の言語、例えば中国語、ロシア語、アラビア語、スペイン語、フランス語、ドイツ語等のあらゆる言語に対して適用することができる。
【0045】
以上説明した第1および第2実施形態は本発明を学習機能をテレビジョン装置に適用した例であったが、本発明はこれにも限定されず、セットトップボックスを含む各種の映像機器に基本的なキャプション機能および学習機能を連携させて構成することにより、他の映像機器に対しても容易に適用することができる。
【0046】
【発明の効果】
また、本発明に係る学習機能を有する映像機器およびその制御方法は例えば英単語などの学習対象としての単語とこれに対応する音声を出力することにより、ユーザの学習能率を高めると共に学習意欲を鼓吹させることができ、他製品と差別化することによって製品の市場における競争力を向上させることができる等の種々の効果がある。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る学習機能を有する映像機器の構成を示すブロック図。
【図2】本発明の第1実施形態による映像機器の発音記号テーブルを示す説明図。
【図3】本発明の第1実施形態による発音記号音声データおよびインデックスデータの記憶形式を示す説明図。
【図4】本発明の第1実施形態に係る学習機能を有する映像機器の制御方法を示すフローチャート。
【図5】本発明の第2実施形態に係る学習機能を有する映像機器の構成を示すブロック図。
【図6】図5の音声プロセッサにおける細部の構成を示すブロック図。
【図7】本発明の第2実施形態に係る学習機能を有する映像機器の制御方法を示すフローチャート。
【図8】本発明の第2実施形態による学習機能を有する映像機器の制御方法における単語記憶および再生方法を示すフローチャート。
【図9】従来の技術による学習機能を有する映像機器の構成を示すブロック図。
【符号の説明】
4 マイクロコンピュータ
6 ビデオスイッチ
8 CPT
9 キャプション処理部
11 学習用インターフェース
14 キャプション制御部
16 トーン調節部
18 スピーカ
19 音声発生部
20 発音記号音声記憶ROM
21 第1発振器
22 第2発振器
23 第3発振器
24 周波数スイッチ
25 音声合成部
28 オーディオスイッチ
40 CPT
50 ビデオスイッチ
70 マイクロコンピュータ
80 音声処理部
81 トーン調節部
90 スピーカ
110 字幕処理部
113 キャプション制御部
120 単語データベース
140 音声発生部
141 音声データベース
142 音声プロセッサ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a video device, and more particularly to a video device having a learning function and a control method thereof.
Recently, various types of video equipment, of which television devices are the most representative examples, have added various additional functions to satisfy the various needs of users in addition to the original video and audio methods. Efforts are being made to improve the competitiveness of products. The learning function is one of the various additional functions described above, and is applied to various video devices.
[0002]
[Prior art]
As shown in FIG. 9, a television apparatus as an example of video equipment having a learning function according to the prior art is used to select a CVBS (Composite Video Blanking Signal), that is, a composite video signal received via an antenna. Tuner 1, a Y / C separation unit 2 that separates a broadcast signal into Y / U / V signals from the composite video signal selected via tuner 1, and a broadcast signal selected via tuner 1. A synchronization signal separation unit 3 that separates signals, a microcomputer 4 that controls the display of OSD or caption data in accordance with the synchronization signal separated from the synchronization signal separation unit 3, and an EEPROM (Electrically Erasable) for storing operation programs and the like & Programmable Read-Only Memory) 5 and OSD or caption data selected by switching signal of microcomputer 4 A video switch 6 to be output, a video / deflection processing unit 7 for performing video processing and deflection processing, a CPT (Color Picture Tube) 8 as a display unit, and a caption among broadcast signals selected via the tuner 1 A caption processing unit 9 that processes information, a learning database 11 that stores predetermined word data for each learning level, and an interface unit 10 for data exchange between the caption processing unit 9 and the learning database 11 are included. It consists of
[0003]
Here, the caption processing unit 9 performs a caption information process with a data slicer (Date Slicer) 12 that extracts caption information from a broadcast signal selected by the tuner 1 in accordance with the synchronization signal output from the synchronization signal separation unit 3. From a caption control unit 14 for controlling, a caption decoder 13 for decoding caption information, a font ROM / program ROM / data RAM 15 for storing fonts and font processing programs corresponding to languages such as English, Korean, Japanese, etc. It is configured.
[0004]
An operation for executing the learning function in the video equipment according to the related art configured as described above will be described below.
When the user turns on the learning function, the microcomputer 4 controls the caption by specifying the learning function setting contents from the user, that is, the address of data corresponding to the learning level, start number, or display position set by the user. A control signal is supplied to the unit 14 and the corresponding data is read from the learning database 11.
Therefore, the caption control unit 14 matches the font corresponding to the data set from the font ROM / program ROM / data RAM 15 to read the learning data, and inputs the read learning data to the video switch 6 via the interface unit 10. Let
[0005]
Next, the microcomputer 4 outputs a control signal to the video switch 6 to turn on the switch so that the corresponding learning data is output to the video / deflection processing unit 7. Then, it is output on the CPT 8 via the video / deflection processing unit 7.
[0006]
On the other hand, the audio signal included in the broadcast signal and received by the tuner 1 is signal-processed via the tone adjusting unit 16 and the amplifier 17 and output as audio via the speaker 18 in synchronization with the corresponding video. The
[0007]
However, such a conventional video device having a learning function according to the conventional technique displays only a predetermined word on the screen and does not output a sound corresponding to the word, and therefore cannot hear a pronunciation corresponding to the word. Therefore, there is a problem that the efficiency of learning by the user is lowered as well as the user's desire to learn cannot be satisfied.
[0008]
[Problems to be solved by the invention]
The present invention has been made to solve the above-described conventional problems, and displays a learning word on a screen and simultaneously outputs a sound corresponding to the word in synchronization with the word. Accordingly, an object of the present invention is to provide a video apparatus having a learning function and a method for controlling the same that can increase learning efficiency.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a video apparatus having a learning function according to the first basic configuration of the present invention displays a learning database that stores learning data including phonetic symbols and image data on a display screen. Therefore, subtitle data included in a broadcast signal and the learning data stored in the learning database are subjected to subtitle processing, and digital audio data for each phonetic symbol stored in advance is used to store the learning data. A plurality of oscillators for synthesizing accent speech corresponding to the word in the middle and generating clock pulses matching the corresponding accent to modulate the frequency of the output speech corresponding to the accent of the phonetic symbol included in the learning data a sound generating unit including, when providing voice learning is requested by the user, the corresponding from the learning database A control unit that reads the learning data and controls the subtitle processing unit and the sound generation unit so that learning data corresponding to the setting content requested by the user and sound corresponding thereto are output. To do.
Further, in the video apparatus having a learning function according to the first basic structure, the sound voice onset raw portion includes a phonetic symbol voice storage ROM that stores the phonetic symbols different voice data, before Symbol controller A frequency switch for selecting and outputting one of clock pulses generated by the oscillator according to a control signal; and voice data selected and output from the phonetic symbol voice storage ROM by the control unit. A voice synthesizer that synthesizes according to the clock pulse selected and output by the signal generator, and a D / A converter for converting the output of the voice synthesizer into an analog signal and outputting it to an audio switch.
[0010]
In addition, the video equipment having the learning function according to the second basic configuration of the present invention includes a learning database for storing learning data including phonetic symbols and a broadcast signal for display as image data on a display screen. Corresponding to the words in the learning data by using the caption processing unit that performs caption processing on the included caption data and the learning data stored in the learning database, and digital voice data for each phonetic symbol stored in advance A voice generation unit including a plurality of oscillators for synthesizing a voice of an accent and generating a clock pulse matching the corresponding accent to modulate the frequency of the output voice corresponding to the accent of the phonetic symbol included in the learning data; When the user requests to provide speech learning, the corresponding learning data is read from the learning database. A control unit that controls the subtitle processing unit and the audio generation unit so that learning data corresponding to the requested setting content and sound corresponding thereto are output, and a subtitle signal of the subtitle processing unit or the learning data is input And a video switch for inputting an OSD signal for controlling video equipment on a screen and selectively outputting the caption signal, the learning data, and the OSD signal according to a switching signal of the control unit, The output from the video switch and the video signal are input, the video processing unit that processes the video signal so that the output and the video signal are displayed on the screen, the output from the audio generation unit, and the audio signal are input respectively. And an audio system that selectively outputs the output from the video switch and the video signal in accordance with a switching signal of the control unit. And pitch, the output of the audio switch comprising: a, a sound signal processing unit for audio signal processing to allow the output through the speaker.
[0016]
Hereinafter, a video apparatus having a learning function and a control method thereof according to first and second embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(First embodiment)
As shown in FIG. 2, the video equipment having the learning function according to the present invention includes a sound generation unit 19 that synthesizes and outputs learning data stored in the learning database 11, for example, a sound corresponding to an English word, and a microcomputer 4. Except for the audio switch 28 that selects and outputs one of the sound output from the sound generation unit 19 and the sound included in the broadcast signal in accordance with the control signal of Since they are the same, the same constituent elements are denoted by the same reference numerals as those in the prior art, and redundant description is omitted.
[0017]
Here, the voice generator 19 stores a phonetic symbol voice storage ROM 20 that stores voice data for each English phonetic symbol, and an accent to modulate the frequency of the output voice to match the accent appearing in the phonetic symbol of the learning data. One of the first, second, and third oscillators 21, 22, and 23 for generating different clock pulses and one of the clock pulses of the first to third oscillators 21 to 23 are selected according to the control signal of the caption control unit 14. The frequency switch 24 for output and the voice data selected and output from the phonetic symbol storage ROM 20 by the caption control unit 14 are given accents corresponding to the clock pulses selected and output by the frequency switch 24. A speech synthesis unit 25 for synthesis, and a D / D for converting the output of the speech synthesis unit 25 into analog The output of the converter 26 and the D / A converter 26 by the buffer, and a buffer 27. to be output to the audio switch 28.
[0018]
The phonetic symbol voice storage ROM 20 stores phonetic symbol-specific voice data as shown in FIG. 2 in the form shown in FIG. 3 together with index data for facilitating the search of the corresponding voice data. ing.
[0019]
A method for executing the learning function in the video apparatus according to the first embodiment of the present invention configured as described above will be described below with reference to FIG.
When the learning mode is set by the user and the voice learning mode is not set (S22), learning data corresponding to the setting contents of the user, that is, English words including meaning, phonetic symbols, and the like are read from the learning database 11. The data is transmitted to the caption control unit 14 via the interface unit 10, is subjected to caption processing under the control of the caption control unit 14, and is displayed on the screen of the CPT 8 via the video switch 6 (S23).
[0020]
On the other hand, when the user sets the speech learning mode (S22), the phonetic symbol of each English word included in the learning data is read from the caption control unit 14 according to the control signal of the microcomputer 4, and the phoneme-specific digital of the phonetic symbol is read. The voice data is read from the phonetic symbol voice storage ROM 20 and supplied to the voice synthesizer 25 (S24).
Then, the caption control unit 14 expresses an accent corresponding to the pronunciation symbol of the English word and outputs it via the voice synthesis unit 25 in synchronization with the video data of the English word based on the control of the microcomputer 4. The frequency switch 24 is controlled as described above (S25).
[0021]
That is, in FIG. 1, the caption control unit 14 applies a control signal to the frequency switch 24, applies a clock pulse matching the corresponding accent to the speech synthesizer 25, and the speech synthesizer 25 sequentially inputs each sound generation. The voice data is synthesized and output in accordance with the clock pulses supplied from the first to third oscillators 21, 22, and 23 so that the voice data classified by symbol phoneme can express the first and second accents.
At this time, as another method for expressing the accent in the output English word voice data, the first and second accents are expressed by adjusting the level of the output voice data and changing the volume level for each phoneme. You can also.
[0022]
Next, the digital voice data output from the voice synthesizer 25 is converted into analog voice data via the D / A converter 26 and input to the audio switch 28 via the buffer 27. The audio switch 28 outputs the audio data output from the buffer 27 in accordance with a control signal from the microcomputer 4.
[0023]
Next, the sound data output from the audio switch 28 is adjusted in tone quality by the tone adjusting unit 16, amplified by the amplifier 17, and output in synchronization with the English words displayed on the screen via the speaker 18. Is done. Therefore, the user can listen to the English word and the pronunciation corresponding to it at the same time. In addition, the present invention is an example in which the voice learning function is applied to a television apparatus, and can be easily applied by configuring a basic caption function and a learning function in cooperation with various video devices including a set-top box. be able to.
[0024]
(Second Embodiment)
A television receiver as a video device having a learning function according to the second embodiment of the present invention is included in a word database 120 for storing predetermined word data and an external video signal as shown in FIG. Caption processing unit 110 for performing caption processing on the caption data or word data stored in the word database 120, an interface unit 130 for exchanging data between the caption processing unit 110 and the word database 120, and the word data. A speech generator 140 for synthesizing a prosody processed sound after converting it into a pronunciationable character string, and reading the corresponding word data from the word database 120 when the user's speech learning function is requested. 110, the caption processing is performed. The microcomputer 70 that controls the sound generator 140 so that sound corresponding to the data is output, the EEPROM 60 for storing the operation program of the microcomputer 70, and the video output from the caption processing unit 110 A video processing unit 30 that performs signal processing so that a signal and a video signal output from the microcomputer 70 or an external video signal can be displayed on a screen, and a CPT 40 that displays a signal output processed by the video processing unit 30. And an audio switch 100 for selectively outputting the output of the sound generator 140 and an external sound signal under the control of the microcomputer 70, and signal processing so that the output of the audio switch 100 can be output by the speaker 90. And an audio processing unit 80. There.
[0025]
At this time, the caption processing unit 110 includes a data slicer 111 for extracting caption information from an external video signal, a caption decoder 112 for decoding the caption information, a font for expressing words, and a font processing program. The memory unit 114 stores the caption information corresponding to the user's storage command in the caption information currently displayed on the screen, and the predetermined caption information is stored in the memory unit 114 under the control of the microcomputer 70. Or a caption control unit 113 for controlling the operation of the data slicer 111 and the caption decoder 112 by reading from the memory unit 114 and transmitting to the audio generation unit 140.
[0026]
Then, the voice generation unit 140 converts the voice data 141 for storing each pronunciation-specific feature parameter, converts the word data into a character string that can be pronounced, analyzes it, performs prosodic processing, and selects the feature parameter corresponding thereto. An audio processor 142 for reading from the audio database 141 and generating a digital audio signal, and a D / A converter 143 and a D / A converter for converting the digital audio signal generated from the audio processor 142 into an analog audio signal And a buffer 144 for buffering the output from 143.
[0027]
At this time, as shown in FIG. 6, the speech processor 142 includes a character string standardization unit 142-1 for standardizing numbers, alphabets, abbreviations, special symbols, and the like in the word data into a pronounceable character string. Analyzing the stylized character string to detect boundary points between phrases and clauses, and outputting from the character string analyzing unit 142-2 for setting the pronunciation of multiple pronunciation words When the pronunciation changes due to the connection between syllables in the generated character string, the phonetic symbol processing unit 142-3 for converting the phonetic symbols to match the changed pronunciation, and the phonetic symbol processing unit 142-3 output A prosody processing unit 142-4 for giving a prosody of length, strength, and intonation to the character string, and a feature parameter corresponding to the pronunciation of the character string output from the prosody processing unit 142-4 Read from, and a sound generation unit 142-5 Prefecture for synthesizing a digital audio signal conforming to it.
[0028]
The video processor 30 also selects a tuner 31 for selecting a broadcast signal received via the antenna, and a CVBS (Composite Video Blanking Signal) selected by the tuner 31, that is, a broadcast signal of the composite video signal. Y / C separation unit 32 that separates into Y / U / V signals, synchronization signal separation unit 33 that separates the synchronization signal from the broadcast signal selected by tuner 31, and video / deflection processing that performs video processing and deflection processing Part 34. The audio processing unit 80 includes a tone adjustment unit 81 and an amplifier 82.
[0029]
Hereinafter, a method of executing the learning function of the video equipment according to the second embodiment of the present invention configured as described above will be described with reference to the flowcharts of FIGS.
First, in order to perform a learning function, the user operates a key of the television device or a remote controller to input a learning function “ON” command. Then, as shown in FIG. 7, the microcomputer 70 determines whether or not the learning function is “ON” (S41).
[0030]
Next, if the determination result (S41) indicates that the learning function is "ON", the learning setting value set by the user, that is, the learning level / start position / display position, etc. is grasped (S42). Then, the word data of the address corresponding to the learning set value is read from the word database 120 (S43).
[0031]
Next, the microcomputer 70 controls the caption processing unit 110 to perform caption processing of the word data so as to match the corresponding font, to perform video processing through the video processing unit 30, and to display the data through the CPT 40. (S44). At the same time, the microcomputer 70 allows the voice generator 140 to transmit word data via the caption controller 110. Accordingly, the voice generation unit 140 converts the word data into a character string that can be pronounced and analyzes it, and then performs prosodic processing (S45).
Then, the voice generation unit 140 synthesizes the character string subjected to prosodic processing using the corresponding pronunciation-specific feature parameters stored in the voice database 141 and outputs the synthesized voice to the speaker (S46).
[0032]
At this time, a detailed operation of the sound generation unit 140 will be described below.
That is, the character string stylization unit 142-1 standardizes numbers, alphabets, abbreviations, and special symbols in the word data into a character string that can be pronounced.
[0033]
Next, the character string analysis unit 142-2 analyzes the stylized character string to detect boundary points between phrases and clauses, and selects a proper pronunciation of a word having two or more pronunciations.
[0034]
Then, the phonetic symbol processing unit 142-3 calibrates the phonetic symbols so as to match the changed pronunciation when the pronunciation of the character string output from the character string analyzing unit 142-2 varies due to the connection between syllables.
[0035]
Next, the prosody processing unit 142-4 gives a prosody such as length, strength, and intonation to the character string output from the phonetic symbol processing unit 142-3.
[0036]
Then, the sound generation unit 142-5 generates digital voice data by synthesizing the character string subjected to the prosodic processing and the characteristic parameters corresponding to the pronunciation thereof, that is, frequency, bandwidth, and energy information.
[0037]
Next, the digital audio data is converted into analog audio via the D / A converter 143 and output to the speaker 90 via the buffer 144.
[0038]
When the voice output operation is completed in this way, it is determined whether the display period of the word displayed on the screen has reached the set period (S47), and if it has reached, the start number of the word is increased ( In S48, it is determined whether or not the displayed word number is an end setting number (S49).
[0039]
Next, if the determination result (S49) indicates that the word number is the end setting number, the process returns to the first start number (S50) and returns to the step (S43).
[0040]
On the other hand, if the learning function is not “ON” as a result of the determination (S41), it is determined whether the learning function “OFF” command is input (S51), and the learning function “OFF” command is input. If so, the learning set value and the current progress state are stored (S52), and the word and voice output is stopped (S53). If the learning function “OFF” command is not input, the corresponding command is processed (S54).
[0041]
In addition, the present invention can store displayed words when necessary and reproduce them together with the corresponding sound at a desired time. This will be described below with reference to FIG.
First, when a user desires, a word storage command or a word reproduction command can be input by operating a key of a video device, for example, a television receiver or a key of a remote controller.
Therefore, as shown in FIG. 8, the microcomputer 70 determines whether a word storage command is input (S61). When the word storage command is input, the microcomputer 70 stores the corresponding word in the memory unit 114 of the caption processing unit 110. (S62).
[0042]
On the other hand, if the determination result (S61) indicates that no word storage command is input, it is determined whether a word reproduction command is input (S63). When the word reproduction command is input, the caption control unit 113 is controlled to read the word stored in the memory unit 114 (S64).
[0043]
Next, the caption processing unit 110 is controlled so that the word data is captioned so as to match the corresponding font, and the image processing unit 30 performs image processing so that the word data is displayed on the screen of the CPT 40 (S65).
At the same time, the voice generation unit 140 transmits the word data via the caption control unit 113, and converts the word data into a utterable character string and analyzes it as described with reference to FIG. Thereafter, prosody processing is performed (S66). In addition, the voice generation unit 140 synthesizes the character string subjected to prosodic processing using the corresponding pronunciation-specific feature parameters stored in the voice database 141, and outputs the synthesized voice through the speaker (S67).
[0044]
In addition, in the video equipment having the learning function according to the first and second embodiments described above, the language as a learning target has been described by taking English as an example, but the present invention is not limited to this, for example, learning Korean. Even when learning Japanese or learning Japanese, the present invention can be applied to other languages such as Chinese, Russian, Arabic, Spanish, French, German, etc. Can be applied.
[0045]
In the first and second embodiments described above, the present invention is an example in which the learning function is applied to a television apparatus. However, the present invention is not limited to this, and is basically applied to various video devices including a set-top box. By combining the basic caption function and the learning function, it can be easily applied to other video devices.
[0046]
【The invention's effect】
In addition, the video equipment having the learning function and the control method thereof according to the present invention increase the learning efficiency of the user and stimulate learning motivation by outputting a word as a learning target such as an English word and a corresponding voice. There are various effects such as being able to improve the competitiveness of the product in the market by differentiating from other products.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a video device having a learning function according to a first embodiment of the present invention.
FIG. 2 is an explanatory diagram showing a phonetic symbol table of the video equipment according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram showing a storage format of phonetic symbol voice data and index data according to the first embodiment of the present invention.
FIG. 4 is a flowchart showing a method for controlling a video device having a learning function according to the first embodiment of the present invention.
FIG. 5 is a block diagram showing a configuration of a video device having a learning function according to the second embodiment of the present invention.
6 is a block diagram showing a detailed configuration of the audio processor of FIG. 5;
FIG. 7 is a flowchart showing a method for controlling a video device having a learning function according to the second embodiment of the present invention.
FIG. 8 is a flowchart showing a word storage and reproduction method in the control method of the video equipment having a learning function according to the second embodiment of the present invention.
FIG. 9 is a block diagram showing a configuration of a video device having a learning function according to a conventional technique.
[Explanation of symbols]
4 Microcomputer 6 Video switch 8 CPT
9 Caption processing unit 11 Learning interface 14 Caption control unit 16 Tone adjustment unit 18 Speaker 19 Sound generation unit 20 Phonetic symbol voice storage ROM
21 First oscillator 22 Second oscillator 23 Third oscillator 24 Frequency switch 25 Speech synthesizer 28 Audio switch 40 CPT
50 Video Switch 70 Microcomputer 80 Audio Processing Unit 81 Tone Adjustment Unit 90 Speaker 110 Subtitle Processing Unit 113 Caption Control Unit 120 Word Database 140 Audio Generation Unit 141 Audio Database 142 Audio Processor

Claims (3)

発音記号を含む学習データを記憶する学習用データベースと、
表示用の画面に画像データとして表示するために、放送信号に含まれる字幕データおよび前記学習用データベースに記憶された前記学習データを字幕処理する字幕処理部と、
予め記憶された発音記号別のデジタル音声データを用いて、前記学習データの中の単語に対応するアクセントの音声を合成すると共に、前記学習データに含まれる発音記号アクセントに対応する出力音声の周波数を変調するために対応するアクセントに合うクロックパルスを発生させる複数の発振器を含む音声発生部と、
ユーザから音声学習の提供が要求されたときに、前記学習用データベースから該当する前記学習データを読み込んで、ユーザから要求された設定内容に当たる学習データおよびこれに対応する音声が出力されるように前記字幕処理部および前記音声発生部を制御する制御部と、
を備えることを特徴とする学習機能を有する映像機器。
A learning database for storing learning data including phonetic symbols;
A caption processing unit that performs caption processing on caption data included in a broadcast signal and the learning data stored in the learning database in order to display the image data on a display screen;
Using prestored digital voice data for each phonetic symbol, the speech of the accent corresponding to the word in the learning data is synthesized and the frequency of the output voice corresponding to the accent of the phonetic symbol included in the learning data A sound generator including a plurality of oscillators for generating clock pulses that match a corresponding accent to modulate
When the user is requested to provide voice learning, the corresponding learning data is read from the learning database, and the learning data corresponding to the setting content requested by the user and the corresponding voice are output. A control unit that controls the caption processing unit and the sound generation unit;
A video apparatus having a learning function.
前記音声発生部は、
各発音記号別の音声データを記憶している発音記号音声記憶ROMと
記制御部の制御信号に従って前記発振器により生成されるクロックパルスの中の1つを選択して出力するための周波数スイッチと、
前記制御部により前記発音記号音声記憶ROMから選択出力される音声データを、前記周波数スイッチにより選択出力されたクロックパルスに従って合成する音声合成部と、
前記音声合成部の出力をアナログに変換して、オーディオスイッチに出力するためのD/A変換器と、
を備えることを特徴とする請求項1に記載の学習機能を有する映像機器。
The sound voice onset generation unit,
A phonetic symbol voice storage ROM that stores the phonetic symbols different voice data,
A frequency switch for selecting and outputting one of the clock pulses generated by the oscillator in accordance with the control signal before Symbol controller,
A voice synthesizer that synthesizes voice data selected and output from the phonetic symbol voice storage ROM by the control unit according to the clock pulse selected and output by the frequency switch;
A D / A converter for converting the output of the speech synthesizer into analog and outputting it to an audio switch;
The video equipment having a learning function according to claim 1, comprising:
発音記号を含む学習データを記憶する学習用データベースと、
表示用の画面に画像データとして表示するために、放送信号に含まれる字幕データおよび前記学習用データベースに記憶された前記学習データを字幕処理する字幕処理部と、
予め記憶された発音記号別のデジタル音声データを用いて、前記学習データの中の単語に対応するアクセントの音声を合成すると共に、前記学習データに含まれる発音記号アクセントに対応する出力音声の周波数を変調するために対応するアクセントに合うクロックパルスを発生させる複数の発振器を含む音声発生部と、
ユーザにより音声学習の提供が要求されたときに、前記学習用データベースから該当する前記学習データを読み込み、要求された設定内容に当たる学習データおよびこれに対応する音声が出力されるように前記字幕処理部および前記音声発生部を制御する制御部と、
前記字幕処理部の字幕信号または前記学習データを入力すると共に、画面上に映像機器を制御するためのOSD信号を入力して、前記制御部の切換信号に従って前記字幕信号、前記学習データ、及び前記OSD信号を選択的に出力させるビデオスイッチと、
前記ビデオスイッチからの出力と映像信号を入力すると共に、前記出力および映像信号を画面上に表示させるように映像信号処理する映像処理部と、
前記音声発生部からの出力と、音声信号をそれぞれ入力すると共に、前記制御部の切換信号に従って前記ビデオスイッチからの出力および前記映像信号を選択的に出力するオーディオスイッチと、
前記オーディオスイッチの出力がスピーカを介して出力可能になるように音声信号処理する音声信号処理部と、
を備えることを特徴とする学習機能を有する映像機器。
A learning database for storing learning data including phonetic symbols;
A caption processing unit that performs caption processing on caption data included in a broadcast signal and the learning data stored in the learning database in order to display the image data on a display screen;
Using prestored digital voice data for each phonetic symbol, the speech of the accent corresponding to the word in the learning data is synthesized and the frequency of the output voice corresponding to the accent of the phonetic symbol included in the learning data A sound generator including a plurality of oscillators for generating clock pulses that match a corresponding accent to modulate
When the user requests to provide voice learning, the subtitle processing unit reads the corresponding learning data from the learning database and outputs the learning data corresponding to the requested setting contents and the corresponding voice. And a control unit for controlling the sound generation unit,
The caption signal of the caption processing unit or the learning data is input, and an OSD signal for controlling a video device is input on the screen, and the caption signal, the learning data, and the control signal are switched according to the switching signal of the control unit. A video switch for selectively outputting an OSD signal;
A video processing unit that inputs an output and a video signal from the video switch, and that processes the video signal so that the output and the video signal are displayed on a screen;
An audio switch that inputs an output from the audio generation unit and an audio signal, and selectively outputs the output from the video switch and the video signal according to a switching signal of the control unit,
An audio signal processing unit for processing an audio signal so that an output of the audio switch can be output via a speaker;
A video apparatus having a learning function.
JP2000078669A 1999-03-22 2000-03-21 Video equipment with learning function Expired - Fee Related JP4034025B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR19990009713 1999-03-22
KR1999-50473 1999-03-22
KR1999-9713 1999-03-22
KR1019990050473A KR100686085B1 (en) 1999-03-22 1999-11-13 Imaging device with learning function and control method

Publications (2)

Publication Number Publication Date
JP2000298493A JP2000298493A (en) 2000-10-24
JP4034025B2 true JP4034025B2 (en) 2008-01-16

Family

ID=26634855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000078669A Expired - Fee Related JP4034025B2 (en) 1999-03-22 2000-03-21 Video equipment with learning function

Country Status (3)

Country Link
JP (1) JP4034025B2 (en)
KR (1) KR100686085B1 (en)
CN (1) CN100353358C (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018074658A1 (en) * 2016-10-17 2018-04-26 주식회사 엠글리쉬 Terminal and method for implementing hybrid subtitle effect

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100469392B1 (en) * 2002-05-31 2005-02-02 엘지전자 주식회사 Learning system and method and a computer usable medium for storing computer readable program source of said method
CN100388769C (en) * 2004-10-09 2008-05-14 南京Lg新港显示有限公司 Voice changing device of distial TV and its method
CN104392633B (en) * 2014-11-12 2020-08-25 国家电网公司 Explanation control method for power system simulation training
CN106157707A (en) * 2015-03-25 2016-11-23 张铭国 English pronunciation auxiliary device
CN111028823B (en) * 2019-12-11 2024-06-07 广州酷狗计算机科技有限公司 Audio generation method, device, computer readable storage medium and computing equipment
CN116932816A (en) * 2022-04-06 2023-10-24 腾讯科技(深圳)有限公司 Video processing method, video processing device, computer readable medium and electronic equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56116070A (en) * 1980-02-19 1981-09-11 Mitsubishi Electric Corp Tv study apparatus
CN1089045A (en) * 1992-12-30 1994-07-06 北京海淀施达测控技术公司 The computer speech of Chinese-character text is monitored and critique system
CN1064766C (en) * 1994-04-12 2001-04-18 松下电气工业株式会社 Synthesis-based speech training system
JPH0836353A (en) * 1994-07-21 1996-02-06 Sogo Shikaku Shiyutoku Zeminaale:Kk Electronic learning book creation method, electronic learning book creation device, and electronic learning book
US5697789A (en) * 1994-11-22 1997-12-16 Softrade International, Inc. Method and system for aiding foreign language instruction
CN1111811C (en) * 1997-04-14 2003-06-18 英业达股份有限公司 Pronunciation Synthesis Method of Computer Speech Signal
KR19980086315A (en) * 1997-05-31 1998-12-05 윤종용 Learning apparatus and method using image output
JP2000508092A (en) * 1997-07-10 2000-06-27 パク、キュ ジン Caption type language learning system using caption type learning terminal and communication network
JPH1165410A (en) * 1997-08-22 1999-03-05 Nec Corp Pronunciation practice device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018074658A1 (en) * 2016-10-17 2018-04-26 주식회사 엠글리쉬 Terminal and method for implementing hybrid subtitle effect

Also Published As

Publication number Publication date
KR20000062159A (en) 2000-10-25
CN1267863A (en) 2000-09-27
CN100353358C (en) 2007-12-05
JP2000298493A (en) 2000-10-24
KR100686085B1 (en) 2007-02-23

Similar Documents

Publication Publication Date Title
EP1028410B1 (en) Speech recognition enrolment system
JP3844431B2 (en) Caption system based on speech recognition
JP3248981B2 (en) calculator
JPH0510874B2 (en)
US5752228A (en) Speech synthesis apparatus and read out time calculating apparatus to finish reading out text
JP4034025B2 (en) Video equipment with learning function
WO2023276539A1 (en) Voice conversion device, voice conversion method, program, and recording medium
KR101990019B1 (en) Terminal for performing hybrid caption effect, and method thereby
JP2001318592A (en) Device for language study and method for language analysis
KR100636386B1 (en) Real-time video voice dubbing device and method
JP2006139162A (en) Language learning system
JPH06337876A (en) Sentence reader
JP2005309173A (en) Speech synthesis control device, method thereof, program thereof, and speech synthesis data generation device
JP6486582B2 (en) Electronic device, voice control method, and program
JPH08272388A (en) Speech synthesizer and method thereof
JP2977855B2 (en) Teletext system
JP4543919B2 (en) Language learning device
JP2703253B2 (en) Speech synthesizer
JP2577372B2 (en) Speech synthesis apparatus and method
JPH0877152A (en) Voice synthesizer
JP4366918B2 (en) Mobile device
JP2006162760A (en) Language learning apparatus
KR100548604B1 (en) Image display device having language learning function and learning method thereof
JPH06141240A (en) How to create subtitle super screen
JPH03213075A (en) Teletext receiver

Legal Events

Date Code Title Description
A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040611

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20040913

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20040916

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050506

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050905

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20051006

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20051104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070828

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071024

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees