[go: up one dir, main page]

JP2008147917A - デジタルコンテンツ処理装置 - Google Patents

デジタルコンテンツ処理装置 Download PDF

Info

Publication number
JP2008147917A
JP2008147917A JP2006331754A JP2006331754A JP2008147917A JP 2008147917 A JP2008147917 A JP 2008147917A JP 2006331754 A JP2006331754 A JP 2006331754A JP 2006331754 A JP2006331754 A JP 2006331754A JP 2008147917 A JP2008147917 A JP 2008147917A
Authority
JP
Japan
Prior art keywords
subtitle
digital content
processing apparatus
character string
display time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006331754A
Other languages
English (en)
Inventor
Hiroyuki Morimoto
洋行 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006331754A priority Critical patent/JP2008147917A/ja
Publication of JP2008147917A publication Critical patent/JP2008147917A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】ユーザが、字幕を参照する際等に、字幕同士の意味の繋がり、または会話における間合い等を理解できるようにする。
【解決手段】字幕処理部15は、字幕ストリームから、第1の字幕の表示時刻情報と第1の字幕の次の第2の字幕の表示時刻情報とを取得し、取得した第1と第2の字幕の表示時刻情報に基づいて、第1の字幕の表示開始から表示終了までの表示時間を算出し、算出した表示時間を示す表示時間情報を出力する。
【選択図】図1

Description

本発明は、例えば、テレビやラジオ等の放送波等に含まれる文字情報を処理する装置に関し、より詳しくは、例えば、字幕情報に加えて、字幕の表示時間および表示間隔を付加情報として算出する装置に関する。
地上デジタル放送が開始され、字幕サービスの普及が進んでいる。字幕サービスによると、出演者が喋った言葉が文字列としてテレビジョン受信機等に表示される。地上デジタル放送では、出演者の話した内容の殆ど全てが字幕として表示される。字幕データは、音声データおよび映像データと比較して、記録に必要な容量が少ないという利点がある。例えば、出演者の話した内容を表す字幕データと、その内容を話す出演者の音声を表す音声データとを比較すると、字幕データの方が音声データよりもデータ量が小さく、小さい記憶容量で保存できる。また、字幕データは、適当な文字コード形式で保存することにより、処理能力の低い機器でも利用しやすくしたり、再利用しやすくできる。
特許文献1に記載された字幕処理装置は、字幕を文字コード(符号)形式で表したテキスト情報を内部に保存するようになっている。そして、保存したテキスト情報を、ユーザーによるリモコン操作等に応じていつでもテレビモニタ等に出力できるようになっている。
特許文献2に記載された字幕表示装置は、その図2等に示されるように、磁気ディスク装置等に保持されたストリームから得られる字幕履歴を、映像および音声とともに出力するようになっている。
特開2003−78889号公報 特開2003−18491号公報
しかしながら、上記特許文献1の字幕処理装置によって字幕のテキスト情報だけがテレビモニタ等に出力されても、ユーザは、字幕同士の意味の繋がり、および会話における間合い等を理解できない。
本発明は、上記の点に鑑み、ユーザが、字幕を参照する際等に、字幕同士の意味の繋がり、または会話における間合い等を理解できるようにすることを目的とする。
上記の課題を解決するため、第1の発明は、
デジタルコンテンツに含まれる字幕ストリームを処理するデジタルコンテンツ処理装置であって、
字幕ストリームから、第1の字幕の表示時刻情報と上記第1の字幕の次の第2の字幕の表示時刻情報とを取得し、取得した第1と第2の字幕の表示時刻情報に基づいて、上記第1の字幕の表示開始から表示終了までの表示時間を算出し、算出した表示時間を示す表示時間情報を出力する字幕処理部を備えていることを特徴とする。
第1の発明によると、字幕処理部が第1の字幕の表示時間情報を出力するので、表示装置等が、出力された表示時間情報に基づいて第1の字幕の表示時間を容易に表示できる。ユーザは、表示された表示時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第2の発明は、
第1のデジタルコンテンツ処理装置において、さらに、
上記字幕ストリームから得られる上記第1の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記第1の字幕の表示時間情報とを関連づけて記憶部に記録する記録部を備えていることを特徴とする。
第2の発明によると、記憶部には、第1の字幕の字幕文字列情報と表示時間情報とが関連づけて記録されるので、表示装置等が、記憶部に記録された情報に基づいて第1の字幕の文字列とその表示時間とを容易に表示できる。ユーザは、表示された表示時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第3の発明は、
第2のデジタルコンテンツ処理装置において、
上記記録部は、関連づけた上記字幕文字列情報および上記表示時間情報として、上記第1の字幕の文字列と上記第1の字幕の表示時間を示す文字列とを含む一連の文字列を文字コード形式で表す情報を、上記記憶部に記録するように構成されていることを特徴とする。
第3の発明によると、表示時間情報は文字コード形式のデータなので、映像や音声のデータが記録される場合よりも、記録データの容量が小さくなる。
また、第4の発明は、
第1のデジタルコンテンツ処理装置において、さらに、
上記字幕ストリームから得られる上記第1の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記第1の字幕の表示時間情報とに基づいて、上記第1の字幕の文字列と上記第1の字幕の表示時間を示す文字列とを表示部に表示させる再生部を備えていることを特徴とする。
第4の発明によると、再生部が、第1の字幕の文字列と表示時間を示す文字列とを表示部に表示させるので、ユーザは表示された表示時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第5の発明は、
第1のデジタルコンテンツ処理装置において、さらに、
デジタルテレビジョン放送の信号波を受信するチューナ部を備え、
上記デジタルコンテンツは、上記信号波から得られたものであることを特徴とする。
第5の発明によると、字幕処理部は、信号波から得られるデジタルコンテンツに含まれる字幕ストリームから、字幕の表示時刻情報を取得し、表示時間を算出できる。
また、第6の発明は、
第1のデジタルコンテンツ処理装置において、
上記表示時間情報は、表示時間を示す文字列を字幕PESと同じデータ形式で表すものであることを特徴とする。
第6の発明によると、字幕PESを処理可能な再生装置等が、このデジタルコンテンツ処理装置によって出力された表示時間情報を読み出し、容易に出力できる。
また、第7の発明は、
デジタルコンテンツに含まれる字幕ストリームを処理するデジタルコンテンツ処理装置であって、
字幕ストリームから、第1の字幕の表示時刻情報、上記第1の字幕の表示時間情報、および上記第1の字幕の次の第2の字幕の表示時刻情報、または、上記第1の字幕の次の制御符号の表示時刻情報、および上記第2の字幕の表示時刻情報を取得し、取得した第1と第2の字幕の表示時刻情報および第1の字幕の表示時間情報、または取得した制御符号の表示時刻情報および第2の字幕の表示時刻情報に基づいて、上記第1の字幕の表示が終了してから上記第2の字幕の表示が開始されるまでのブランク時間を算出し、算出したブランク時間を示すブランク時間情報を出力する字幕処理部を備えていることを特徴とする。
第7の発明によると、字幕処理部が第1の字幕の表示が終了してから第2の字幕の表示が開始されるまでのブランク時間を示すブランク時間情報を出力するので、表示装置等が、出力されたブランク時間情報に基づいてブランク時間を容易に表示できる。ユーザは、表示されたブランク時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第8の発明は、
第7のデジタルコンテンツ処理装置において、
上記字幕ストリームから得られた上記第1と第2の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記ブランク時間情報とを関連づけて記憶部に記録する記録部を備えていることを特徴とする。
第8の発明によると、記憶部には、第1と第2の字幕の字幕文字列情報とブランク時間情報とが関連づけて記録されるので、表示装置等が、これらの記録された情報に基づいて第1と第2の字幕の文字列とそのブランク時間とを容易に表示できる。ユーザは、表示されたブランク時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第9の発明は、
第8のデジタルコンテンツ処理装置において、
上記記録部は、関連づけた上記字幕文字列情報および上記ブランク時間情報として、上記第1と第2の字幕の文字列と上記ブランク時間を示す文字列とを含む一連の文字列を文字コード形式で表す情報を、上記記憶部に記録するように構成されていることを特徴とする。
第9の発明によると、ブランク時間情報は文字コード形式のデータなので、映像や音声のデータが記録される場合よりも、記録データの容量が小さくなる。
また、第10の発明は、
第9のデジタルコンテンツ処理装置において、
上記ブランク時間を示す文字列は、上記ブランク時間に応じた行数の改行であり、上記第1と第2の字幕の文字列の間に挿入されたものであることを特徴とする。
第10の発明によると、記録部は、第1と第2の字幕の文字列の間にブランク時間に応じた行数の改行が挿入された文字列を文字コード形式で表す情報を記憶部に記録するので、表示装置等が、記録された情報に基づいて、第1と第2の字幕の文字列と第1と第2の字幕の間のブランク時間に応じた行数の改行とを容易に表示できる。
また、第11の発明は、
第7のデジタルコンテンツ処理装置において、
上記字幕ストリームから得られる上記第1と第2の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力されたブランク時間情報とに基づいて、上記第1と第2の字幕の文字列とブランク時間を示す文字列とを表示部に表示させる再生部を備えていることを特徴とする。
第11の発明によると、再生部が、第1と第2の字幕の文字列とブランク時間を示す文字列とを表示部に表示させるので、ユーザは表示されたブランク時間を視認等することによって、字幕同士の意味の繋がり、または会話における間合い等を理解できる。
また、第12の発明は、
第11のデジタルコンテンツ処理装置において、
上記ブランク時間を示す文字列は、上記ブランク時間に応じた行数の改行であり、上記第1と第2の字幕の文字列の間に挿入されたものであることを特徴とする。
第12の発明によると、再生部は、第1と第2の字幕の文字列の間にブランク時間に応じた行数の改行が挿入された文字列を表示部に表示させる。
また、第13の発明は、
第7のデジタルコンテンツ処理装置において、さらに、
デジタルテレビジョン放送の信号波を受信するチューナ部を備え、
上記デジタルコンテンツは、上記信号波から得られたものであることを特徴とする。
第13の発明によると、字幕処理部は、信号波から得られるデジタルコンテンツに含まれる字幕ストリームから字幕の表示時刻情報や表示時間情報を取得し、ブランク時間を算出できる。
また、第14の発明は、
第7のデジタルコンテンツ処理装置において、
上記ブランク時間情報は、ブランク時間を示す文字列を字幕PESと同じデータ形式で表すものであることを特徴とする。
第14の発明によると、字幕PESを処理可能な再生装置等が、このデジタルコンテンツ処理装置によって出力されたブランク時間情報を読み出し、容易に出力できる。
ユーザは、字幕を参照する際等に、字幕同士の意味の繋がり、または会話における間合い等を理解できるようになる。
以下、本発明の実施形態について、図面を参照して説明する。
本発明の実施形態に係るデジタルコンテンツ処理装置は、図1に示すように、アンテナ11、チューナ部12、復調部13、トランスポートデコード部14、字幕処理部15、記録部16、再生部18および表示部19を備えている。
アンテナ11は、地上デジタルテレビジョン放送の信号波を受信するようになっている。具体的には、アンテナ11は、ホイップ(ロッド)アンテナ、ダイポールアンテナ、八木・宇田アンテナ、パラボラアンテナ、ループアンテナ、または誘電体アンテナ等である。
チューナ部12は、アンテナ11によって受信された放送波を、指定されたチャンネルに対応する周波数に同調させることにより、選局を行うようになっている。
復調部13は、指定されたチャンネルを通じて受信された信号を、デジタルストリームデータ、具体的には、トランスポートストリーム(TS)(デジタルコンテンツ)に復調するようになっている。当該TSは、映像、音声、字幕、およびセクション情報等のデータが多重化されたものである。
トランスポートデコード部14は復調されたデジタルストリームを解析して、オーディオ、ビデオ、字幕、およびセクション情報等について、それぞれのPES(Packetized Elementary Stream、パケッタイズドエレメンタリーストリーム)を構築するようになっている。字幕を示すPES(以下、「字幕PES」と呼ぶ。)は、それぞれ、ヘッダ部分とペイロード(Payload)部分とを有する。ペイロード部分は、表示すべき字幕の字幕情報、および字幕の表示を制御するための制御符号を含む。制御符号には、表示されている文字列を消去する符号や、画面の表示を一定期間保持させる符号が含まれる。ヘッダ部分は、字幕または制御符号を表示するタイミングを示す表示時刻情報を含む。ここで、字幕情報は、表示すべき字幕の各文字が8単位符号の形式でコード化されたデータである。
字幕処理部15は、トランスポートデコード部14によって構築された各字幕PESのペイロード部分から、字幕の文字列を示す字幕情報を取得し、デコード(復号)することによって、字幕の文字列をJISコード形式で表す字幕文字列情報を取得する。また、トランスポートデコード部14によって構築された各字幕PESのヘッダ部分から、字幕等の表示時刻を示す表示時刻情報を取得する。また、字幕PESのペイロード部分に、字幕の表示開始から表示終了までの表示時間を示す表示時間情報が含まれる場合には、その表示時間情報をも取得する。そして、これらの取得した情報を用いて、各字幕の表示時間および各字幕の表示が終了してから次の字幕の表示が開始されるまでのブランク時間(表示間隔)を算出する。算出方法の詳細については後述する。そして、算出した表示時間を示す文字列をJISコード形式で表す表示時間情報、および算出したブランク時間を示す文字列をJISコード形式で表すブランク時間情報を生成して出力する。
記録部16は、字幕処理部15によって取得された字幕文字列情報に、字幕処理部15によって生成された表示時間情報を付与し、記憶部17に記録するようになっている。より詳しくは、字幕文字列情報と表示時間情報とを合わせ、各字幕の文字列とその字幕の表示時間を示す情報を表す文字列とを一連の文字列として表すJISコード形式の文字列情報を、字幕処理部15によって出力された順に記憶部17に記録するようになっている。また、字幕処理部15によって2つの字幕の間のブランク時間が算出された場合には、2つの字幕の字幕文字列情報とブランク時間情報とを合わせ、2つの字幕の文字列の間にブランク時間を示す文字列が挿入された一連の文字列を表すJISコード形式の文字列情報を、字幕処理部15によって出力された順に記憶部17に記録するようになっている。記憶部17は、メモリカード、光ディスク、磁気ディスク等の記録媒体、これら記録媒体を備えた機器、有線又は無線のネットワーク等で実現される。
再生部18は、ユーザからの再生指示により、記憶部17に記憶された文字列情報を、表示時刻情報に示された時刻とは関係なく読み出し、読み出した文字列情報に基づいて、字幕の文字列と表示時間およびブランク時間を示す文字列とを表示部19に表示させるようになっている。
表示部19は、文字列を表示するようになっている。表示部19は、CRT(Cathod Ray Tube display)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electroluminescence display)等の表示デバイスとそのインタフェースとから構成される。
次に、図2を用いて、本発明のデジタルコンテンツ処理装置による字幕情報の記録動作について説明する。
(S101)チューナ部12は、ユーザからの指示により、アンテナ11によって受信されたデジタルテレビ放送の放送波を、視聴対象のチャンネルに同調させ、そのチャンネルのテレビ放送信号を受信する。
(S102)チューナ部12によって受信されたテレビ放送信号は、復調部13により、デジタルストリームに復調される。
(S103)復調されたデジタルストリームは、トランスポートデコード部14によって、映像、音声、字幕、およびセクション情報等の各トランスポートストリームに分離される。分離された各トランスポートストリームはパケット化され、映像、音声、字幕、およびセクション情報等の各PESが構築される。
(S104)構築された字幕PESは、字幕処理部15に入力される。字幕処理部15は、トランスポートデコード部14から2つの字幕PESが入力されると以下の動作を開始する。字幕処理部15は、続いて入力される2つの字幕PESを保持する。
字幕処理部15は、保持された各字幕PESのペイロード部分の字幕情報をJISコード形式に復号(デコード)し、字幕文字列情報として出力する。
また、字幕処理部15は、保持された2つの各字幕PESのヘッダ部分の表示時刻情報に基づいて、先に表示される字幕の表示時間を求める。
ここで、この表示時間がどのように求められるかについて説明する。
例えば、一方の字幕PESのヘッダ部分は、先に一画面に表示される字幕Aの表示開始時刻t1を示す表示時刻情報を含み、他方の字幕PESのヘッダ部分は、引き続き一画面に表示される字幕Bの表示開始時刻t2を示す表示時刻情報を含んでいるとする。t1とt2は、図3に示すような関係であるとする。この場合、字幕処理部15は、字幕Aと字幕Bの2つの字幕PES(字幕ストリーム)から、字幕Aと字幕Bの表示時刻情報を取得する。そして取得した2つの字幕の表示時刻情報に基づいて、字幕Aの表示される表示時間t2−t1を求める。そして、求めた表示時間を表す文字列をJISコード形式で示す表示時間情報を生成する。
また、字幕処理部15は、保持された2つの字幕PESの一方が、ペイロード部分に制御符号を含み、他方が、その制御符号の次に表示される字幕の字幕情報を含んでいる場合、制御符号の直前に表示される字幕の表示が消去されてからその次に表示される字幕が表示されるまでのブランク時間を求める。
例えば、一方の字幕PESのヘッダ部分は、制御符号aの表示開始時刻t4を示す表示時刻情報を含み、他方の字幕PESのヘッダ部分は、制御符号aの次に表示される字幕Dの表示開始時刻t5を示す表示時刻情報を含んでいるとする。t4とt5は、図4に示すような関係であるとする。この場合、制御符号aの直前に表示されていた字幕Cが消去されるのは、制御符号aの表示時刻t4である。したがって、字幕処理部15は、2つの字幕PES(字幕ストリーム)から、制御符号aと字幕Dの表示時刻情報を取得し、それらの表示時刻情報に基づいて、字幕Cの表示が消去されて(終了して)から字幕Dの表示が開始されるまでのブランク時間t5−t4を求める。そして、求めたブランク時間を表す文字列をJISコード形式で示すブランク時間情報を生成する。
また、字幕処理部15は、保持された2つの字幕PESのうちで、先に表示される字幕の字幕PESが、そのペイロード部分に、字幕の表示を一定期間保持させる制御符号を含んでいる場合にも、先に表示される字幕の表示が終了してから後に表示される字幕の表示が開始されるまでのブランク時間を求める。
例えば、一方の字幕PESは、ヘッダ部分に、字幕Eの表示開始時刻t6を示す表示時刻情報を含み、ペイロード部分に、字幕Eの表示をTの期間保持させる制御符号bを含み、他方の字幕PESのヘッダ部分は、字幕Fの表示開始時刻t7を示す表示時刻情報を含んでいるとする。t6、t7およびTの関係は図5のようであるとする。この場合、字幕処理部15は、2つの字幕PES(字幕ストリーム)から、字幕Eの表示時刻情報、字幕Eの表示をTの期間保持させる制御符号b、および字幕Fの表示時刻情報を取得し、それらの表示時刻情報および制御符号に基づいて、字幕Eの表示が終了してから字幕Fの表示が開始されるまでのブランク時間t7−t6+Tを算出する。そして、算出したブランク時間を表す文字列をJISコード形式で示すブランク時間情報を生成する。
上記のように、字幕処理部15は、連続する2つの字幕PESを保持した状態で処理を進めるようになっているので、両方の字幕PESの表示時刻情報を参照することにより、字幕の表示時間、およびブランク時間を容易に求められる。
なお、1つの字幕PESに複数の字幕文字列または制御符号と、それらのそれぞれの表示を一定期間保持させる制御符号が含まれる場合もある。その場合には単一の字幕PES内で、表示期間の取得が終了し、前述の場合よりも解析処理は簡素となる。
(S105)字幕処理部15によって得られた表示時間情報およびブランク時間情報は、記録部16によって、字幕処理部15によって出力された字幕文字列情報に付与される。上記例の場合、記録部16は、字幕Aの文字列の後に字幕Aの表示時間t2−t1を示す文字列が続く一連の文字列をJISコード形式で表す文字列情報を記憶部17に記録する。また、字幕Cの文字列とブランク時間t5−t4を示す文字列と字幕Dの文字列とを含む一連の文字列をJISコード形式で表す文字列情報を記憶部17に記録する。この一連の文字列においては、字幕Cの文字列の次の行に、ブランク時間t5−t4を示す文字列が続き、さらに、ブランク時間t5−t4を示す文字列の次の行に字幕Dの文字列が続く。同様に、字幕Eの文字列とブランク時間t7−t6+Tを示す文字列と字幕Fの文字列とを含む一連の文字列をJISコード形式で表す文字列情報を記憶部17に記録する。この一連の文字列においては、字幕Eの文字列の次の行に、ブランク時間t7−t6+Tを示す文字列が続き、さらに、ブランク時間t7−t6+Tを示す文字列の次の行に字幕Fの文字列が続く。文字列情報で表される文字列の具体例を図6に示す。
(S106)ユーザは、図示しないボタン、キーボード、タッチパネルなどのマンマシンインタフェースを介して、文字列を表示部19に表示させる。記憶部17には、字幕の表示時間およびブランク時間を示す情報が文字コード形式で記憶されているので、再生部18は、この情報を読み出すことによって、容易に字幕の表示時間およびブランク時間を示す文字列を表示部19に容易に表示できる。ユーザは、表示された文字列を視認することによって、容易に字幕同士の意味の繋がり、または会話における間合い等を理解できる。
なお、表示部19に表示させる代わりに記憶部17に記録された文字列情報が外部に取り出されるようにしてもよい。この場合には、記憶部17そのものが取り外されるようにしてもよいし、記憶部17とは別の記憶装置が接続され、そこに記憶部17に記録された文字列情報が移動、またはコピーされるようにしてもよい。
また、記録部16および記憶部17を設けずに、再生部18が、直接、字幕文字列情報、表示時間情報、およびブランク時間情報を字幕処理部15から受けとり、字幕の文字列、表示時間を示す文字列、およびブランク時間を示す文字列を表示部19に表示させるようにしてもよい。
また、本実施形態のデジタルコンテンツ処理装置では、受信したデジタルテレビジョン放送の信号波から得られる字幕PESに対して字幕処理部15が処理を行うようになっていた。しかし、アンテナ11、チューナ部12および復調部13を設けずに、記録媒体から、トランスポートストリームが読み出され、読み出されたトランスポートストリームから得られた字幕PESに対して字幕処理部15が処理を行うようにしてもよい。つまり、本発明は、信号波を受信する機能を持たない再生装置にも適用できる。
また、表示部19の表示が、頭出しに用いられるようにしてもよい。つまり、表示部19に表示された字幕がユーザによって指定されること等により、その字幕に対応する映像および音声が出力されるようにしてもよい。
また、上記実施形態では、表示時間を表す文字列が各字幕の文字列の後ろに続くように、文字列情報が記憶部17に記録されるようになっていた。しかし、字幕の文字列の前等、他の箇所に位置するように記録されるようにしてもよい。同様に、ブランク時間を示す文字列が、連続する2つの字幕の間の行ではなく、先行する字幕と同じ行のその字幕の後ろや、後続する字幕と同じ行のその字幕の前等、他の箇所に位置するように、文字列情報が記録されるようにしてもよい。
さらに、ブランク時間情報は、ブランク時間を“n秒”といった文字列で表すものではなく、単数もしくは複数の改行で表すものであってもよい。先に表示される字幕の文字列と後に表示される字幕の文字列との間にブランク時間の長さに応じた行数の改行が挿入されている文字列を見ることによって、ユーザは容易にブランク時間を知ることができる。例えば、ブランク時間が10秒であれば2行の改行、20秒であれば3行の改行等と、あらかじめ定めておけばよい。
また、上記実施形態では、字幕処理部15は、表示間隔やブランク時間等を示す文字列をJISコード形式で示す文字列情報を出力するようになっていた。しかし、字幕PESの形式で表す文字列情報を出力するようにしてもよい。例えば、字幕処理部15が字幕PESを再生成して出力するようにしてもよい。この場合、記憶部17には字幕PESの形式の文字列情報が記録されるので、記録された文字列情報を、一般的な字幕PESを処理可能な表示部(再生装置等)を用いて表示できる。したがって、デジタルコンテンツ処理装置の汎用性が向上する。また、文字色の設定やフラッシュ等の表示利点がある。
また、上記実施形態において、字幕処理部15によって出力される字幕文字列情報、表示時間情報、およびブランク時間情報は、JISコード形式であった。しかし、JISコード形式に限らず、シフトJISコード、EUCコード、またはUnicode等の他の文字コード形式であってもよい。
また、表示時間情報およびブランク時間情報は、文字コード形式以外の形式であってもよい。
また、上記実施形態において、記録部16は、字幕文字列情報と表示時間情報とを、字幕の文字列とその字幕の表示時間に対応する情報を表す文字列とを含む一連の文字列を表す情報として記録するようになっていた。しかし、字幕文字列情報と表示時間情報とが関連づけられてさえいれば、分離した情報として記録されてもよい。同様に、相前後する字幕の字幕文字列情報とそれらの字幕間のブランク時間情報とは、関連づけられてさえいれば、かならずしも一連の文字列を表す情報として記録されなくてもよく、分離した情報として記録されてもよい。
本発明に係るデジタルコンテンツ処理装置は、ユーザが、字幕を参照する際等に、字幕同士の意味の繋がり、または会話における間合い等を理解できるようになるという効果を有し、例えば、テレビやラジオ等の放送波に含まれる文字情報を記録する装置等として有用である。
本発明の実施形態に係るデジタルコンテンツ処理装置の構成を示すブロック図である。 同、デジタルコンテンツ処理装置の動作を示すフローチャートである。 同、字幕Aと字幕Bの表示開始時刻t1、t2を示す説明図である。 同、制御符号aと字幕Dの表示開始時刻t4、t5を示す説明図である。 同、字幕Eと字幕Fの表示開始時刻t6、t7および字幕Eの表示時間Tを示す説明図である。 同、字幕処理部15に入力される字幕PESと、記録部16に記録される文字列情報によって表される文字列との具体例を示す説明図である。
符号の説明
11 アンテナ
12 チューナ部
13 復調部
14 トランスポートデコード部
15 字幕処理部
16 記録部
17 記憶部
18 再生部
19 表示部

Claims (14)

  1. デジタルコンテンツに含まれる字幕ストリームを処理するデジタルコンテンツ処理装置であって、
    字幕ストリームから、第1の字幕の表示時刻情報と上記第1の字幕の次の第2の字幕の表示時刻情報とを取得し、取得した第1と第2の字幕の表示時刻情報に基づいて、上記第1の字幕の表示開始から表示終了までの表示時間を算出し、算出した表示時間を示す表示時間情報を出力する字幕処理部を備えていることを特徴とするデジタルコンテンツ処理装置。
  2. 請求項1のデジタルコンテンツ処理装置において、さらに、
    上記字幕ストリームから得られる上記第1の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記第1の字幕の表示時間情報とを関連づけて記憶部に記録する記録部を備えていることを特徴とするデジタルコンテンツ処理装置。
  3. 請求項2のデジタルコンテンツ処理装置において、
    上記記録部は、関連づけた上記字幕文字列情報および上記表示時間情報として、上記第1の字幕の文字列と上記第1の字幕の表示時間を示す文字列とを含む一連の文字列を文字コード形式で表す情報を、上記記憶部に記録するように構成されていることを特徴とするデジタルコンテンツ処理装置。
  4. 請求項1のデジタルコンテンツ処理装置において、さらに、
    上記字幕ストリームから得られる上記第1の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記第1の字幕の表示時間情報とに基づいて、上記第1の字幕の文字列と上記第1の字幕の表示時間を示す文字列とを表示部に表示させる再生部を備えていることを特徴とするデジタルコンテンツ処理装置。
  5. 請求項1のデジタルコンテンツ処理装置において、さらに、
    デジタルテレビジョン放送の信号波を受信するチューナ部を備え、
    上記デジタルコンテンツは、上記信号波から得られたものであることを特徴とするデジタルコンテンツ処理装置。
  6. 請求項1のデジタルコンテンツ処理装置において、
    上記表示時間情報は、表示時間を示す文字列を字幕PESと同じデータ形式で表すものであることを特徴とするデジタルコンテンツ処理装置。
  7. デジタルコンテンツに含まれる字幕ストリームを処理するデジタルコンテンツ処理装置であって、
    字幕ストリームから、第1の字幕の表示時刻情報、上記第1の字幕の表示時間情報、および上記第1の字幕の次の第2の字幕の表示時刻情報、または、上記第1の字幕の次の制御符号の表示時刻情報、および上記第2の字幕の表示時刻情報を取得し、取得した第1と第2の字幕の表示時刻情報および第1の字幕の表示時間情報、または取得した制御符号の表示時刻情報および第2の字幕の表示時刻情報に基づいて、上記第1の字幕の表示が終了してから上記第2の字幕の表示が開始されるまでのブランク時間を算出し、算出したブランク時間を示すブランク時間情報を出力する字幕処理部を備えていることを特徴とするデジタルコンテンツ処理装置。
  8. 請求項7のデジタルコンテンツ処理装置において、
    上記字幕ストリームから得られた上記第1と第2の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力された上記ブランク時間情報とを関連づけて記憶部に記録する記録部を備えていることを特徴とするデジタルコンテンツ処理装置。
  9. 請求項8のデジタルコンテンツ処理装置において、
    上記記録部は、関連づけた上記字幕文字列情報および上記ブランク時間情報として、上記第1と第2の字幕の文字列と上記ブランク時間を示す文字列とを含む一連の文字列を文字コード形式で表す情報を、上記記憶部に記録するように構成されていることを特徴とするデジタルコンテンツ処理装置。
  10. 請求項9のデジタルコンテンツ処理装置において、
    上記ブランク時間を示す文字列は、上記ブランク時間に応じた行数の改行であり、上記第1と第2の字幕の文字列の間に挿入されたものであることを特徴とするデジタルコンテンツ処理装置。
  11. 請求項7のデジタルコンテンツ処理装置において、
    上記字幕ストリームから得られる上記第1と第2の字幕の文字列を示す字幕文字列情報と上記字幕処理部によって出力されたブランク時間情報とに基づいて、上記第1と第2の字幕の文字列とブランク時間を示す文字列とを表示部に表示させる再生部を備えていることを特徴とするデジタルコンテンツ処理装置。
  12. 請求項11のデジタルコンテンツ処理装置において、
    上記ブランク時間を示す文字列は、上記ブランク時間に応じた行数の改行であり、上記第1と第2の字幕の文字列の間に挿入されたものであることを特徴とするデジタルコンテンツ処理装置。
  13. 請求項7のデジタルコンテンツ処理装置において、さらに、
    デジタルテレビジョン放送の信号波を受信するチューナ部を備え、
    上記デジタルコンテンツは、上記信号波から得られたものであることを特徴とするデジタルコンテンツ処理装置。
  14. 請求項7のデジタルコンテンツ処理装置において、
    上記ブランク時間情報は、ブランク時間を示す文字列を字幕PESと同じデータ形式で表すものであることを特徴とするデジタルコンテンツ処理装置。
JP2006331754A 2006-12-08 2006-12-08 デジタルコンテンツ処理装置 Pending JP2008147917A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006331754A JP2008147917A (ja) 2006-12-08 2006-12-08 デジタルコンテンツ処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006331754A JP2008147917A (ja) 2006-12-08 2006-12-08 デジタルコンテンツ処理装置

Publications (1)

Publication Number Publication Date
JP2008147917A true JP2008147917A (ja) 2008-06-26

Family

ID=39607609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006331754A Pending JP2008147917A (ja) 2006-12-08 2006-12-08 デジタルコンテンツ処理装置

Country Status (1)

Country Link
JP (1) JP2008147917A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161544A (ja) * 2009-01-07 2010-07-22 Sharp Corp テキスト再生装置、テキスト記録再生装置、テキスト再生方法、制御プログラム、および記録媒体
JP2021061519A (ja) * 2019-10-07 2021-04-15 富士ゼロックス株式会社 情報処理装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010161544A (ja) * 2009-01-07 2010-07-22 Sharp Corp テキスト再生装置、テキスト記録再生装置、テキスト再生方法、制御プログラム、および記録媒体
JP2021061519A (ja) * 2019-10-07 2021-04-15 富士ゼロックス株式会社 情報処理装置およびプログラム
JP7447422B2 (ja) 2019-10-07 2024-03-12 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Similar Documents

Publication Publication Date Title
KR100580195B1 (ko) 복수채널 타임시프트가 가능한 녹화방법 및 그 장치
CN101461241B (zh) 隐藏式字幕的系统和方法
US12395692B2 (en) Apparatus, systems and methods for electronic program guide information presented on a display
CN101188722A (zh) 影像记录再现装置
JP5067370B2 (ja) 受信装置、表示制御方法、及びプログラム
JP5879169B2 (ja) 字幕同期再生装置およびそのプログラム
US20080060019A1 (en) Broadcast receiving apparatus, control method thereof, and storage medium
JP2006245907A (ja) 放送記録再生装置
JP2008147917A (ja) デジタルコンテンツ処理装置
JP5198088B2 (ja) 再生装置、制御方法
CN102308574A (zh) 显示设备及用于提供显示设备的数据广播的方法
US20090116816A1 (en) Chaptering method and apparatus for movie data
US8302023B2 (en) Character input device and character input method
KR20040004390A (ko) 픽셀 데이터 버퍼링을 위한 방법 및 시스템
JP2005184093A (ja) 番組録画再生システム、番組録画再生サーバ、番組受信端末及び番組表生成方法
EP2302910A1 (en) Electronic apparatus and display method
JP2008148175A (ja) 字幕情報処理装置、文字列情報出力装置、および文字列情報出力方法
JP2009159484A (ja) 放送受信装置
JP4872426B2 (ja) デジタル放送記録装置
JP5231758B2 (ja) データ放送表示装置、データ放送表示方法およびデータ放送表示プログラム
JP4456993B2 (ja) データ処理装置、その方法、そのプログラム、および、記録媒体
JP5066876B2 (ja) 自動通知システム
JP2008053991A (ja) デジタル放送受信装置
JP2002135667A (ja) 放送受信装置、放送システム、放送受信方法、及び記憶媒体
JP2008172439A (ja) デジタルコンテンツ処理装置