JP2004110615A - Sign Language Interpretation System - Google Patents
Sign Language Interpretation System Download PDFInfo
- Publication number
- JP2004110615A JP2004110615A JP2002274423A JP2002274423A JP2004110615A JP 2004110615 A JP2004110615 A JP 2004110615A JP 2002274423 A JP2002274423 A JP 2002274423A JP 2002274423 A JP2002274423 A JP 2002274423A JP 2004110615 A JP2004110615 A JP 2004110615A
- Authority
- JP
- Japan
- Prior art keywords
- sign language
- moving image
- unit
- terminal device
- interpreting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】互いに異なる手話を使用するろう者同士、あるいはろう者と聴者同士でスムーズに会話を行うことができる手話通訳システムを提供する。
【解決手段】本発明に係る手話通訳システムは、ろう者または聴者が使用する少なくとも一台の端末装置1と、この端末装置1との間で通信媒体2を介して動画像及び音声データの送受信を行う手話通訳センター3とを備え、手話通訳センター3は、サーバー4と複数の手話通訳装置5とを有する。複数の手話言語を通訳できる複数の手話通訳者を手話通訳センター3に常駐しておき、互いに異なるろう者同士、あるいはろう者と聴者同士で会話を行う必要が生じると、手話の動画像を端末装置1から手話通訳装置5に送信して手話通訳者が手話の通訳を行い、その結果を音声または手話で端末装置1に送信するため、手話言語が理解できない者同士で、違和感なく、かつほぼリアルタイムで会話を行うことができる。
【選択図】 図1A sign language interpreting system is provided that enables a deaf person using different sign languages or a deaf person and a listener to have a smooth conversation.
A sign language interpreting system according to the present invention transmits and receives a moving image and audio data between at least one terminal device used by a deaf person or a listener and the terminal device via a communication medium. The sign language interpreting center 3 includes a server 4 and a plurality of sign language interpreting devices 5. A plurality of sign language interpreters capable of interpreting a plurality of sign language languages are stationed at the sign language interpreting center 3, and if it is necessary to have a conversation between different deaf people or between deaf people and listeners, a moving image of the sign language is transmitted to the terminal. Since the sign language interpreter interprets the sign language by transmitting it from the device 1 to the sign language interpreting device 5 and transmitting the result to the terminal device 1 by voice or sign language, the persons who cannot understand the sign language are comfortable and almost uncomfortable. You can talk in real time.
[Selection diagram] Fig. 1
Description
【0001】
【発明の属する技術分野】
本発明は、互いに異なる種類の手話を扱うろう者同士の会話、あるいは、ろう者と聴者同士の会話を手助けする手話通訳システムに関する。
【0002】
【従来の技術】
日本で広く使用されている手話には、大別すると二種類がある。一つは、日本手話と呼ばれるものであり、昔からろう者によって代々受け継がれてきた伝統的なものである。この日本手話は、日本語とは全く異なる言語である。もう一つは、日本語対応手話と呼ばれるものであり、日本語そのものを手話によって表現しようとするものである。日本語対応手話は日本手話よりも歴史が浅く、近代になって作られたものである。
【0003】
日本手話は先天的ろう者が使用することが多いのに対し、日本語対応手話は後天的ろう者が使用することが多い。
【0004】
このように、国内に複数種類の手話が並存するのは外国においても同じであり、例えば、米国には、アメリカ手話と英語対応手話が存在する。
【0005】
【発明が解決しようとする課題】
日本手話は、日本語と文法が異なるため、日本手話をマスターするのは、外国語をマスターするのと同じくらい困難である。この点、日本語対応手話は、単語
さえマスターできれば、すぐにでも話しができる。
【0006】
日本手話を話すろう者は、日本語を理解できる者であれば、日本語対応言語を理解しやすいが、後天的ろう者の多くは日本語対応手話しか理解できない。このため、日本手話を話す者と日本語対応手話を話す者との会話でも、通訳を必要とする場合がある。
【0007】
また、現在の日本社会で手話として教えているものは日本語対応手話であることが多く、二種類の手話が存在することすら、十分に認知されていない。日本手話をマスターするのは難しいが、両親がろう者である聴者の子供は、日本手話と日本語の双方を完全にマスターできる環境にあり、日本手話と日本語対応手話の双方を理解できる手話通訳者になる可能性が高い。
【0008】
本発明は、このような点に鑑みてなされたものであり、その目的は、互いに異なる手話を使用するろう者同士、あるいはろう者と聴者同士でスムーズに会話を行うことができる手話通訳システムを提供することにある。
【0009】
【課題を解決するための手段】
上述した課題を解決するために、本発明は、複数の手話通訳者がそれぞれ使用する複数の手話通訳装置を有するセンターと、前記センターとの間で音声及び動画像データの通信を行う少なくとも一台の端末装置と、を備え、前記端末装置は、ろう者の顔の表情と手の動きを動画像として取り込む第1画像取込み部と、話者の音声を取り込む第1音声取込み部と、取り込んだ動画像および音声を前記センターに伝送する第1通信部と、前記手話通訳装置から伝送されてきた動画像を第1表示装置に映し出す第1表示処理部と、を有し、前記複数の手話通訳装置のそれぞれは、前記端末装置から伝送されてきた動画像を第2表示装置に映し出す第2表示処理部と、前記第2表示装置に映し出された動画像に含まれる手話情報を前記手話通訳者が通訳して得られた音声を取り込む第2音声処理部と、手話通訳者の顔の表情と手の動きを動画像として取り込む第2画像取込み部と、取り込んだ音声及び動画像を前記端末装置に伝送する第2通信部と、を有する。
【0010】
本発明では、端末装置と手話通訳装置との間で、音声及び動画像データを送受信し、互いに異なる手話言語を扱うろう者同士、あるいはろう者と聴者同士で、ほぼリアルタイムに会話を行えるようにする。
【0011】
【発明の実施の形態】
以下、本発明に係る手話通訳システムについて、図面を参照しながら具体的に説明する。
【0012】
図1は本発明に係る手話通訳システムの一実施形態の全体構成を示すブロック図である。図1の手話通訳システムは、ろう者または聴者が使用する少なくとも一台の端末装置1と、この端末装置1との間で通信媒体2を介して動画像及び音声データの送受信を行う手話通訳センター3とを備えている。
【0013】
通信媒体2の種類は特に問わないが、35万画素以上の解像度の動画(ストリーミング画像)を20コマ/秒以上で安定に伝送可能な通信媒体2が望ましい。この種の通信媒体2の具体例としては、FTTHやADSLなどが考えられる。
【0014】
図1の手話通訳システムは、互いに異なる手話言語を扱うろう者同士、あるいはろう者と聴者同士の会話を行うことを念頭に置いている。
【0015】
図1の手話通訳センター3は、サーバー4と複数の手話通訳装置5とを有する。手話通訳装置5は、手話通訳者が使用するものであり、複数種類の手話言語に迅速に対応できるように複数設けられ、複数の手話通訳者が同時に複数のろう者に応対できるようにしている。
【0016】
端末装置1には、ろう者や聴者が手軽に持ち運べるようにした携帯型のものと、聴者がろう者と会話する必要のある場所(役所や病院など)に設置される据置型のものとがある。
【0017】
例えば、ろう者同士で会話を行う場合は、各ろう者が所持している携帯型の端末装置1をそれぞれ利用して、手話通訳センター3を介して会話を行う。また、役所などで、聴者がろう者と会話する必要が生じた場合には、据置型の端末装置1のある場所にろう者を案内して、この端末装置1を利用して聴者は手話通訳センター3を介してろう者と会話する。
【0018】
図2は携帯型の端末装置1の一例を示す斜視図、図3は据置型の端末装置1の一例を示す斜視図である。これら端末装置1は、手話を行うろう者の顔の表情と手の動きを動画像として取り込み可能な撮像部6(例えば、CCDカメラ)と、手話通訳センター3から送られてきた動画像及び音声を再生する表示部7及びスピーカ8と、手話通訳センター3との間で文字情報や制御情報の送受信を行うためのキーボード9とを有する。
【0019】
ろう者は耳が不自由なため、着信音が鳴っても着信に気がつかない。そこで、本実施形態では、ろう者に対して図3及び図4に示すような腕時計型のバイブレータ10を持たせている。手話通訳センター3から端末装置1に着信信号が届くと、端末装置1内の着信信号送信部は無線にてバイブレータ10を駆動する。また、バイブレータ10だけで着信を知らせるだけでなく、端末装置1のランプを点灯させてもよい。
【0020】
図4は端末装置1の内部構成の一例を示す詳細ブロック図である。図示のように、端末装置1は、手話通訳センター3とのデータ通信を制御する通信処理部21と、手話通訳センター3からの受信データを復調する復調部22と、手話通訳センター3への送信データを変調する変調部23と、手話通訳センター3からの着信を検出する着信検出部24と、バイブレータ10に着信を報知する着信信号送信部25と、手話通訳センター3からの受信データに含まれる音声データの処理を行う音声処理部26と、音声の再生を行うスピーカ8と、手話通訳センター3からの受信データに含まれる画像データの処理を行う画像処理部28と、画像を表示する表示部7と、手話通訳センター3からの警告信号を検出する警告検出部29と、動画像のコマ落ちを検出するコマ落ち検出部30と、ろう者の顔の表情及び手の動きを撮像する撮像部6と、撮像画像の処理を行う画像処理部31と、ろう者または聴者の音声を取り込むマイク32と、取り込んだ音声の処理を行う音声処理部33と、手話言語の選択を行う手話言語選択部34と、手話通訳装置5に対してコマ落ちを警告する警告出力部35と、を有する。
【0021】
スピーカ8とマイク32は、電話機に設けられている受話器をそのまま利用してもよいし、あるいは受話器とは別に設けられてもよい。
【0022】
図5は手話通訳センター3内の手話通訳装置5の内部構成の一例を示す詳細ブロック図である。図示のように、手話通訳装置5は、端末装置1とのデータ通信を制御する通信処理部41と、端末装置1からの受信データを復調する復調部42と、端末装置1への送信データを変調する変調部43と、端末装置1からの受信データに含まれる音声データの処理を行う音声処理部44と、音声の再生を行うスピーカ45と、端末装置1からの受信データに含まれる画像データの処理を行う画像処理部46と、画像を表示する表示部47と、端末装置1からの警告信号を検出する警告検出部48と、動画像のコマ落ちを検出するコマ落ち検出部49と、端末装置1が選択した手話言語を検出する手話言語検出部50と、手話通訳者の顔の表情及び手の動きを撮像する撮像部51と、撮像画像の処理を行う画像処理部52と、手話通訳者の音声を取り込むマイク53と、取り込んだ音声の処理を行う音声処理部54と、手話通訳装置5に対してコマ落ちを警告する警告出力部55と、を有する。
【0023】
端末装置1を使用するろう者または聴者は、手話を開始する前に、手話言語選択部34により手話言語を選択する。この手話言語選択部34は、端末装置1に設けられたボタンやキーボード9操作等によりろう者や聴者が入力した手話言語を選択する。選択された手話言語は、手話通訳センター3に送られ、手話通訳装置5内の手話言語検出部50にて検出される。
【0024】
手話通訳センター3には、複数の手話言語それぞれを通訳する複数の手話翻訳者が常駐しており、端末装置1で選択された手話言語を通訳可能な手話翻訳者を選定する。なお、端末装置1が手話言語を選択したときに、その手話言語を通訳できる手話通訳者がすぐに応対できない場合には、その旨を端末装置1に返信するのが望ましい。
【0025】
手話通訳センター3に常駐する手話翻訳者は、日本手話と日本語対応手話を通訳できる者だけでなく、外国人のろう者にも対応できるように、主要な外国の手話言語を通訳できる手話翻訳者を常駐させるのが望ましい。
【0026】
また、手話通訳センター3に手話通訳者を常駐させる代わりに、各手話通訳者の自宅等をネットワークで相互に接続して、手話通訳センター3からネットワークを介して連絡を受けた手話通訳者が手話通訳を行ってもよい。この場合、手話通訳センター3から手話通訳者にろう者の動画像を送って手話通訳者が通訳を行ってもよいし、手話通訳センター3からの指示により手話通訳者がろう者と直接通信を行って動画像を受信してもよい。
【0027】
これにより、種々の手話言語の通訳ができる多数の手話通訳者をネットワーク化することができ、数多くのろう者に対して同時に通訳サービスを行うことができ、利用価値が向上する。
【0028】
端末装置1と手話通訳センター3とは、高速の通信媒体2でデータ通信を行うが、時間帯等により通信トラフィックが発生し、条件が悪いと高速データ通信ができない場合もある。この場合、手話の様子を表す動画像がコマ落ちしてしまい、手話通訳者やろう者が内容を理解できないおそれがある。
【0029】
このような問題に対処するために、本実施形態では、端末装置1と手話通訳装置5の双方に、コマ落ち検出部30,49と、警告出力部35,55と、警告検出部29,48とを設けている。コマ落ち検出部30,49で動画像のコマ落ちを検出すると、警告出力部35,55から警告信号を送信する。また、警告検出部29,48で警告信号が検出されると、手話を行うろう者や手話通訳者に対してコマ落ちが起こった旨の警告を行い、手話の速度を落とすように促す。警告の具体的手法としては、例えば、端末装置1に設けられている専用のランプを点灯または点滅させる。あるいは、端末装置1の表示装置7にコマ落ちが起きた旨を表示してもよい。
【0030】
手話の速度が遅くなれば、秒当たりのコマ数を遅くしてもコマ落ちは発生しなくなるため、秒当たりのコマ数を減らすことができ、これにより、動画像のデータ量を削減できる。
【0031】
コマ落ちが起きた場合の他の対処方法として、手話に関係のない背景画像を削除して動画像のデータ量を削減してもよい。手話に必要な画像は、手話者の顔の表情と手の動きであり、それ以外の背景画像は手話の理解にはあまり重要ではない。そこで、背景画像をカットして(より具体的には、背景画像を無地単色に設定して)、動画像データのデータ量を削減する。
【0032】
コマ落ちが起きた場合のもう一つの対処方法として、動画像の画素数を減らすか、画面サイズを縮小してデータ量を削減してもよい。ただし、画素数を減らすすと、画像が粗くなり、また、画面サイズを縮小すると、画面が見づらくなり、いずれにしても顔の表情や手の動きを把握しづらくなる。したがって、極端に画素数を減らしたり、画面サイズを縮小するのは望ましくない。
【0033】
上記のようなコマ落ち対策を施すと、単位時間当たりの情報伝送量が当然に少なくなる。情報伝送量が減っても常時接続の環境にあれば特に金銭的な問題は起きないが、ISDN回線等の通信時間に応じて課金される環境では、コマ落ちが起きると通信時間がより長くなるため、ユーザの金銭的な負担が重くなる。このため、このような環境では、通信時間ではなく、実際に送信した情報伝送量に応じて課金するのが望ましい。例えば、携帯電話などで採用されているパケット量に応じて課金する課金システムが望ましい。
【0034】
ところで、動画像や音声データを伝送する手法として、高速の伝送速度が得られる可能性があるが伝送速度が保証されないベストエフォート型の伝送手法と、最高伝送速度が制限される代わりに最低伝送速度を保証する伝送手法とがあるが、本実施形態は、ブロードバンド回線を利用し、かつコマ落ち対策も施しているため、できればベストエフォート型の伝送手法を採用するのが望ましい。
【0035】
互いに異なる手話言語を扱うろう者同士が手話通訳センター3を介して会話を行う場合、ろう者の電話番号やIPアドレス等(以下、総称して識別情報と呼ぶ)を会話のたびに入力するのはろう者の負担が大きい。そこで、手話通訳センター3にろう者の識別情報を一括して登録しておき、各ろう者は手話通訳センター3から他のろう者の識別情報を取得できるようにするのが望ましい。
【0036】
図6は手話通訳センター3内のサーバー4が複数のろう者の識別情報を管理する例を示すサーバー4のブロック図である。図6のサーバー4は、ろう者の識別情報を格納する識別情報格納部61と、ろう者の識別情報を更新する識別情報更新部62と、要求のあったろう者の識別情報を提供する識別情報提供部63とを有する。
【0037】
ろう者Aが他のろう者Bと手話通訳センター3を介して会話を行う場合は、ろう者Bの氏名等を手話通訳センター3に送信すれば、手話通訳センター3内のサーバー4がろう者Bの識別情報をろう者Aに提供するか、あるいはろう者Aとろう者Bとを自動的にネットワーク接続する。
【0038】
ろう者は、言葉を発しないため、他人の氏名を覚えるのが苦手であるという一般的な傾向がある。このため、サーバ4の識別情報格納部61に登録されている情報をろう者に提供する場合には、図7に示すように、登録されているろう者の上半身を写した静止画像と、そのろう者の特徴的な文字情報(例えば、住んでいる地域名、ニックネーム、趣味など)とを組にして、検索を行ったろう者に提供するのが望ましい。
【0039】
これにより、ろう者は、自分が会話を行いたい相手を静止画像と文字情報で視覚的に把握でき、通話相手を記憶に留め易くなる。
【0040】
また、ろう者が識別情報格納部61に登録されている情報を検索する際も、氏名だけでなく、地域名やニックネームなどで検索できるようにするのが望ましい。
【0041】
例えば、ろう者Aがろう者Bと会話を行う目的で、ろう者Bに電話をかけた場合、ろう者Bの端末装置1の画面には、着信時に図7に示すような文字情報付きのろう者Aの静止画像を表示する。ここで、ろう者Bが端末装置1の特定のボタンを押すと、ろう者B自身の静止画像をろう者Aに伝送する。これにより、ろう者Aはろう者Bが応答したことを視覚的に確認できる。
【0042】
上述した実施形態では、異なる手話言語を扱うろう者同士、あるいはろう者と聴者が手話通訳センター3を介して会話を行う例を説明したが、本システムは、同種の手話言語を扱うろう者同士の会話にも利用可能である。この場合、手話通訳センター3を利用しないことになるが、従来のテレビ電話システムに比べて、本システムは、ブロードバンド回線を利用しつつ、コマ落ち対策を施しているため、実際に会って会話しているのと変わらない使い勝手で、違和感なく会話を行うことができる。
【0043】
このように、本実施形態では、複数の手話言語を通訳できる複数の手話通訳者を手話通訳センター3に常駐しておき、互いに異なるろう者同士、あるいはろう者と聴者同士で会話を行う必要が生じると、手話の動画像を端末装置1から手話通訳装置5に送信して手話通訳者が手話の通訳を行い、その結果を音声または手話で端末装置1に送信するため、手話言語が理解できない者同士で、違和感なく、かつほぼリアルタイムで会話を行うことができる。
【0044】
特に、本実施形態によれば、ろう者間、あるいはろう者と聴者間のコミュニケーションをより緊密に図ることができ、ろう者に対する差別や、手話言語の違いによるコミュニケーションの欠如も解消される可能性が大きい。
【0045】
また、端末装置1と手話通訳装置5との間でのデータ通信速度が何らかの事情で遅くなってコマ落ちが発生すると、その旨を動画像の送信側に報知するようにしたため、手話の速度を遅くして秒当たりのコマ数を減らすことにより、動画像のデータ量を削減することができる。
【0046】
上述した実施形態において、端末装置1と手話通訳装置5との間の通信は、インターネットを介して行ってもよいし、電話会社やプロバイダの専用回線を介して行ってもよい。
【0047】
また、端末装置1自体が必ずしも手話通訳装置5との通信機能を持っていなくてもよく、例えば端末装置1に携帯電話を接続して、この携帯電話を介して手話通訳装置5とデータ通信を行ってもよい。あるいは、端末装置1が無線LAN機能を持っていれば、ルーターや無線アクセスポイントを介して手話通訳装置5とデータ通信を行ってもよい。
【0048】
【発明の効果】
以上詳細に説明したように、本発明によれば、端末装置と手話通訳装置との間で、音声及び動画像データを送受信できるようにしたため、互いに異なる手話言語を扱うろう者同士、あるいはろう者と聴者同士で、ほぼリアルタイムに会話を行うことができる。特に、種々の手話言語を通訳できる複数の手話通訳者をセンターに常駐させることにより、色々な手話言語を扱うろう者との間で通訳を行うことができる。
【図面の簡単な説明】
【図1】本発明に係る手話通訳システムの一実施形態の全体構成を示すブロック図。
【図2】携帯型の端末装置の一例を示す斜視図。
【図3】据置型の端末装置の一例を示す斜視図。
【図4】端末装置の内部構成の一例を示す詳細ブロック図。
【図5】手話通訳センター内の手話通訳装置の内部構成の一例を示す詳細ブロック図。
【図6】手話通訳センター内のサーバーが複数のろう者の識別情報を管理する例を示すサーバーのブロック図。
【図7】登録されているろう者の上半身を写した静止画像と、そのろう者の特徴的な文字情報とを組にして、検索を行ったろう者に提供する例を示す図。
【符号の説明】
1 端末装置
2 通信媒体
3 手話通訳センター
4 サーバー
5 手話通訳装置
6,51 撮像部
7,47 表示部
8,45 スピーカ
9 キーボード
10 バイブレータ
21,41 通信処理部
22,42 復調部
23,43 変調部
24 着信検出部
25 着信信号送信部
26,33,44,54 音声処理部
28,31,46,52 画像処理部
29,48 警告検出部
30,49 コマ落ち検出部
32,53 マイク
34 手話言語選択部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a sign language interpreting system for assisting conversation between deaf people who handle different kinds of sign languages or conversation between deaf people and listeners.
[0002]
[Prior art]
Sign language widely used in Japan can be roughly classified into two types. One is called Japanese Sign Language, which is traditionally handed down from generation to generation by Deaf people. This Japanese sign language is a completely different language from Japanese. The other is called Japanese-language sign language, which attempts to express Japanese in sign language. Japanese-language sign language has a shorter history and is more modern than Japanese sign language.
[0003]
While Japanese sign language is often used by innate deaf people, Japanese-language sign language is often used by acquired deaf people.
[0004]
As described above, it is the same in foreign countries that a plurality of types of sign language coexist in Japan. For example, in the United States, there are American sign language and English-language sign language.
[0005]
[Problems to be solved by the invention]
Mastering Japanese Sign Language is as difficult as mastering a foreign language because Japanese Sign Language has a different grammar than Japanese. In this regard, Japanese-language sign language can be spoken as soon as words are mastered.
[0006]
Deaf people who speak Japanese Sign Language can easily understand Japanese-language if they can understand Japanese, but many acquired Deaf people cannot understand Japanese-language sign language. For this reason, interpreters may be needed even in conversations between Japanese sign language speakers and Japanese sign language speakers.
[0007]
Also, what is taught as sign language in current Japanese society is often Japanese-language sign language, and even the existence of two types of sign language is not fully recognized. Although it is difficult to master Japanese sign language, children whose listeners are deaf parents are in an environment where they can master both Japanese sign language and Japanese, and can understand both Japanese sign language and Japanese sign language. Highly likely to be an interpreter.
[0008]
The present invention has been made in view of such a point, and an object of the present invention is to provide a sign language interpreting system that enables smooth conversation between deaf people using different sign languages or between deaf people and listeners. To provide.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, the present invention provides a center having a plurality of sign language interpreters used by a plurality of sign language interpreters, and at least one unit for communicating voice and moving image data between the centers. A first image capturing unit that captures a facial expression and hand movements of a deaf person as a moving image, a first voice capturing unit that captures a speaker's voice, A first communication unit for transmitting a moving image and a voice to the center; a first display processing unit for displaying a moving image transmitted from the sign language interpreting device on a first display device; Each of the devices includes a second display processing unit that displays a moving image transmitted from the terminal device on a second display device, and sign language information included in the moving image displayed on the second display device. Through A second voice processing unit that captures the voice obtained as a result, a second image capture unit that captures the facial expression of the sign language interpreter and hand movements as a moving image, and transmits the captured voice and moving image to the terminal device. And a second communication unit.
[0010]
According to the present invention, voice and video data are transmitted and received between a terminal device and a sign language interpreting device, so that deaf people who handle mutually different sign language, or deaf people and listeners, can have a conversation in almost real time. I do.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, the sign language interpreting system according to the present invention will be specifically described with reference to the drawings.
[0012]
FIG. 1 is a block diagram showing the overall configuration of an embodiment of the sign language interpreting system according to the present invention. The sign language interpreting system shown in FIG. 1 is a sign language interpreting center for transmitting and receiving a moving image and audio data between at least one terminal device 1 used by a deaf person or a listener and the terminal device 1 via a communication medium 2. 3 is provided.
[0013]
Although the type of the communication medium 2 is not particularly limited, the communication medium 2 capable of stably transmitting a moving image (streaming image) having a resolution of 350,000 pixels or more at 20 frames / second or more is desirable. Specific examples of this type of communication medium 2 include FTTH and ADSL.
[0014]
The sign language interpreting system of FIG. 1 is intended to hold conversations between deaf people who handle different sign languages, or between deaf people and listeners.
[0015]
The sign
[0016]
The terminal device 1 includes a portable device that can be easily carried by a deaf person or a listener and a stationary device that is installed in a place where a listener needs to talk with a deaf person (such as a government office or a hospital). is there.
[0017]
For example, when a conversation is performed between deaf persons, the conversation is performed via the sign
[0018]
FIG. 2 is a perspective view illustrating an example of the portable terminal device 1, and FIG. 3 is a perspective view illustrating an example of the stationary terminal device 1. These terminal devices 1 include an imaging unit 6 (for example, a CCD camera) capable of capturing the facial expression and hand movements of a deaf person performing sign language as a moving image, and a moving image and voice transmitted from the sign
[0019]
Deaf people are deaf and do not notice incoming calls when they ring. Therefore, in the present embodiment, the deaf person is provided with a wristwatch-
[0020]
FIG. 4 is a detailed block diagram illustrating an example of the internal configuration of the terminal device 1. As illustrated, the terminal device 1 includes a
[0021]
The
[0022]
FIG. 5 is a detailed block diagram showing an example of the internal configuration of the sign language interpreting apparatus 5 in the sign
[0023]
A deaf person or a listener using the terminal device 1 selects a sign language by the sign
[0024]
The sign
[0025]
Sign language translators who are resident at the Sign
[0026]
Also, instead of having the sign language interpreter resident at the sign
[0027]
As a result, a large number of sign language interpreters capable of interpreting various sign language languages can be networked, and an interpreting service can be simultaneously provided to a large number of deaf people, thereby improving the utility value.
[0028]
The terminal device 1 and the sign
[0029]
In order to deal with such a problem, in the present embodiment, in both the terminal device 1 and the sign language interpreting device 5, dropped
[0030]
If the speed of the sign language is reduced, no frame drop occurs even if the number of frames per second is reduced, so that the number of frames per second can be reduced, thereby reducing the data amount of the moving image.
[0031]
As another method for coping with dropped frames, a background image irrelevant to sign language may be deleted to reduce the data amount of the moving image. The images required for sign language are the facial expression of the signer and the movement of the hands, and the other background images are not so important for understanding sign language. Therefore, the background image is cut (more specifically, the background image is set to a solid color) to reduce the amount of moving image data.
[0032]
As another method for coping with dropped frames, the number of pixels of a moving image may be reduced, or the screen size may be reduced to reduce the amount of data. However, if the number of pixels is reduced, the image becomes coarse, and if the screen size is reduced, the screen becomes difficult to see, and in any case, it becomes difficult to grasp facial expressions and hand movements. Therefore, it is not desirable to extremely reduce the number of pixels or reduce the screen size.
[0033]
If the above-described countermeasures against dropped frames are taken, the amount of information transmitted per unit time naturally decreases. Even if the amount of information transmission is reduced, there is no particular financial problem in an environment of constant connection, but in an environment where charges are made according to the communication time of an ISDN line or the like, the communication time becomes longer if dropped frames occur. Therefore, the user's financial burden increases. For this reason, in such an environment, it is desirable to charge according to the actually transmitted information transmission amount instead of the communication time. For example, a charging system that charges according to the amount of packets employed in mobile phones and the like is desirable.
[0034]
By the way, as a method of transmitting moving image and audio data, there is a possibility that a high transmission rate can be obtained, but a best effort type transmission method where the transmission rate is not guaranteed, and a minimum transmission rate instead of limiting the maximum transmission rate However, in the present embodiment, since a broadband line is used and measures against dropped frames are taken, it is desirable to adopt a best-effort transmission method if possible.
[0035]
When a deaf person who speaks different sign languages speaks via the sign
[0036]
FIG. 6 is a block diagram of the
[0037]
When the deaf person A has a conversation with another deaf person B via the sign
[0038]
Deaf people do not speak well, so there is a general tendency that they are not good at remembering others' names. Therefore, when the information registered in the identification information storage unit 61 of the
[0039]
Thereby, the deaf person can visually grasp the partner with whom he or she wants to have a conversation with the still image and the character information, and can easily remember the partner of the call.
[0040]
Also, when a deaf person searches for information registered in the identification information storage unit 61, it is desirable to be able to search not only by name but also by area name or nickname.
[0041]
For example, when the deaf person A calls the deaf person B for the purpose of having a conversation with the deaf person B, the screen of the terminal device 1 of the deaf person B is provided with character information as shown in FIG. A still image of the deaf person A is displayed. Here, when the deaf person B presses a specific button of the terminal device 1, a still image of the deaf person B is transmitted to the deaf person A. Thereby, the deaf person A can visually confirm that the deaf person B has responded.
[0042]
In the above-described embodiment, an example has been described in which deaf people who handle different sign language languages or a deaf person and a listener have a conversation via the sign
[0043]
As described above, in the present embodiment, it is necessary to have a plurality of sign language interpreters who can interpret a plurality of sign language languages resident at the sign
[0044]
In particular, according to the present embodiment, communication between a deaf person or between a deaf person and a listener can be made more closely, and discrimination against a deaf person and lack of communication due to a difference in sign language may be eliminated. Is big.
[0045]
Also, when the data communication speed between the terminal device 1 and the sign language interpreting device 5 is slowed down for some reason and a frame drop occurs, the fact is notified to the transmitting side of the moving image. By reducing the number of frames per second at a low speed, the data amount of the moving image can be reduced.
[0046]
In the above-described embodiment, the communication between the terminal device 1 and the sign language interpreting device 5 may be performed via the Internet, or may be performed via a dedicated line of a telephone company or a provider.
[0047]
In addition, the terminal device 1 itself does not necessarily have to have a communication function with the sign language interpreting device 5. For example, a mobile phone is connected to the terminal device 1, and data communication with the sign language interpreting device 5 is performed via the mobile phone. May go. Alternatively, if the terminal device 1 has a wireless LAN function, data communication with the sign language interpreting device 5 may be performed via a router or a wireless access point.
[0048]
【The invention's effect】
As described in detail above, according to the present invention, since voice and video data can be transmitted and received between the terminal device and the sign language interpreting device, deaf people who handle mutually different sign language, or deaf people And the listeners can have a conversation in almost real time. In particular, by having a plurality of sign language interpreters capable of interpreting various sign language languages resident at the center, it is possible to perform interpretation with deaf people who handle various sign language languages.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an entire configuration of an embodiment of a sign language interpreting system according to the present invention.
FIG. 2 is a perspective view showing an example of a portable terminal device.
FIG. 3 is a perspective view showing an example of a stationary terminal device.
FIG. 4 is a detailed block diagram showing an example of an internal configuration of the terminal device.
FIG. 5 is a detailed block diagram showing an example of an internal configuration of a sign language interpreting apparatus in a sign language interpreting center.
FIG. 6 is a block diagram of a server showing an example in which a server in a sign language interpreting center manages identification information of a plurality of deaf people.
FIG. 7 is a diagram illustrating an example in which a registered still image of the upper body of a deaf person and character information characteristic of the deaf person are combined and provided to a deaf person who has performed a search.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Terminal device 2
Claims (11)
前記センターとの間で音声及び動画像データの通信を行う少なくとも一台の端末装置と、を備え、
前記端末装置は、
ろう者の顔の表情と手の動きを動画像として取り込む第1画像取込み部と、
話者の音声を取り込む第1音声取込み部と、
取り込んだ動画像および音声を前記センターに伝送する第1通信部と、
前記手話通訳装置から伝送されてきた動画像を第1表示装置に映し出す第1表示処理部と、を有し、
前記複数の手話通訳装置のそれぞれは、
前記端末装置から伝送されてきた動画像を第2表示装置に映し出す第2表示処理部と、
前記第2表示装置に映し出された動画像に含まれる手話情報を前記手話通訳者が通訳して得られた音声を取り込む第2音声処理部と、
手話通訳者の顔の表情と手の動きを動画像として取り込む第2画像取込み部と、
取り込んだ音声及び動画像を前記端末装置に伝送する第2通信部と、を有することを特徴とする手話通訳システム。A center having a plurality of sign language interpreters used by a plurality of sign language interpreters,
And at least one terminal device that performs communication of voice and moving image data with the center,
The terminal device,
A first image capturing unit that captures a facial expression and hand movements of a deaf person as a moving image;
A first voice capturing unit for capturing the voice of the speaker;
A first communication unit for transmitting the captured moving image and audio to the center;
A first display processing unit for displaying a moving image transmitted from the sign language interpreting device on a first display device,
Each of the plurality of sign language interpreters,
A second display processing unit for displaying a moving image transmitted from the terminal device on a second display device;
A second voice processing unit that captures a voice obtained by the sign language interpreter interpreting the sign language information included in the moving image projected on the second display device;
A second image capturing unit that captures the facial expression and hand movement of the sign language interpreter as a moving image;
A second communication unit for transmitting the captured voice and moving image to the terminal device.
前記第2通信部から伝送されてきた動画像の伝送速度が所定の制限速度以下になったか否かを検出する第1コマ飛び検出部と、
前記第1コマ飛び検出部で前記制限速度以下になったことが検出されると、動画像を伝送した前記手話通訳装置に対する警告信号を生成する第1警告部と、を有し、
前記複数の手話通訳装置のそれぞれは、
前記第1通信部から伝送されてきた動画像の伝送速度が所定の制限速度以下になったか否かを検出する第2コマ飛び検出部と、
前記第2コマ飛び検出部で前記制限速度以下になったことが検出されると、動画像を伝送した前記端末装置に対する警告信号を生成する第2警告部と、を有することを特徴とする請求項1に記載の手話通訳システム。The terminal device,
A first frame skip detection unit that detects whether a transmission speed of a moving image transmitted from the second communication unit is equal to or lower than a predetermined speed limit;
A first warning unit configured to generate a warning signal to the sign language interpreting device that has transmitted a moving image when the first frame skip detection unit detects that the speed has become equal to or less than the speed limit,
Each of the plurality of sign language interpreters,
A second frame skip detection unit that detects whether a transmission speed of a moving image transmitted from the first communication unit has fallen below a predetermined speed limit;
A second warning unit configured to generate a warning signal to the terminal device that has transmitted a moving image when the second frame skip detection unit detects that the speed has fallen below the speed limit. Item 1. The sign language interpreting system according to Item 1.
前記手話通訳装置は、前記第1警告部からの警告信号を受信すると、手話通訳者に対して手話の速度を遅くするように指示することを特徴とする請求項2に記載の手話通訳システム。Upon receiving the warning signal from the second warning unit, the terminal device instructs a deaf person to reduce the speed of sign language,
The sign language interpreting system according to claim 2, wherein the sign language interpreting device, upon receiving the warning signal from the first warning unit, instructs the sign language interpreter to reduce the speed of the sign language.
前記手話通訳装置は、前記第1警告部からの警告信号を受信すると、動画像の伝送速度に応じて、前記端末装置に伝送される動画像の秒当たりのコマ数を削減することを特徴とする請求項2または3に記載の手話通訳システム。When the terminal device receives the warning signal from the second warning unit, according to the transmission speed of the moving image, reduces the number of frames per second of the moving image transmitted to the sign language interpreter,
The sign language interpreter, upon receiving a warning signal from the first warning unit, reduces the number of frames per second of the moving image transmitted to the terminal device according to the transmission speed of the moving image. The sign language interpreting system according to claim 2 or 3, wherein
前記手話通訳装置は、前記第1警告部からの警告信号を受信すると、前記端末装置に伝送される動画像に含まれる、手話通訳者の顔の表情及び手の動き以外の背景画像を簡略化して動画像のデータ量を削減することを特徴とする請求項3または4に記載の手話通訳システム。The terminal device, upon receiving the warning signal from the second warning unit, simplifies the background image other than the facial expression of the deaf person and the hand movement included in the moving image transmitted to the sign language interpreting device. Reduce the amount of video data,
Upon receiving the warning signal from the first warning unit, the sign language interpreter simplifies the background image other than the facial expression and hand movements of the sign language interpreter included in the moving image transmitted to the terminal device. The sign language interpreting system according to claim 3 or 4, wherein the amount of data of the moving image is reduced by performing the operation.
前記手話通訳装置は、前記第1警告部からの警告信号を受信すると、前記端末装置に伝送される動画像に含まれる、手話通訳者の顔の表情及び手の動き以外の背景画像を無地単色に設定することを特徴とする請求項5に記載の手話通訳システム。Upon receiving the warning signal from the second warning unit, the terminal device includes a background image other than the facial expression of the deaf person and the hand movement included in the moving image transmitted to the sign language interpreting device in a plain monochrome color. Set,
When receiving the warning signal from the first warning unit, the sign language interpreting apparatus converts the background image other than the facial expression of the sign language interpreter's face and the hand movement included in the moving image transmitted to the terminal apparatus into a solid color image. The sign language interpreting system according to claim 5, wherein the setting is set to:
前記手話通訳装置は、前記第1警告部からの警告信号を受信すると、動画像の解像度を低くすることにより、前記端末装置に伝送される動画像の秒当たりのコマ数を削減することを特徴とする請求項2に記載の手話通訳システム。The terminal device, when receiving the warning signal from the second warning unit, by reducing the resolution of the moving image, to reduce the number of frames per second of the moving image transmitted to the sign language interpreter,
When receiving the warning signal from the first warning unit, the sign language interpreter reduces the resolution of the moving image, thereby reducing the number of frames per second of the moving image transmitted to the terminal device. The sign language interpreting system according to claim 2, wherein
前記着信報知部は、無線信号により前記バイブレータを振動させて着信を知らせることを特徴とする請求項8に記載の手話通訳システム。The incoming call notification device is a wristwatch-type vibrator having a wireless function,
The sign language interpreting system according to claim 8, wherein the incoming call notification unit notifies the incoming call by vibrating the vibrator by a wireless signal.
前記端末装置それぞれとの通信に必要な情報を格納する通信情報格納部と、
前記通信情報格納部に格納された情報を更新する通信情報更新部と、
前記通信情報格納部に格納された情報を、必要に応じて前記端末装置に提供する通信情報提供部と、を有することを特徴とする請求項1及至9のいずれかに記載の手話通訳システム。The center is
A communication information storage unit that stores information necessary for communication with each of the terminal devices;
A communication information updating unit that updates information stored in the communication information storage unit;
The sign language interpreting system according to any one of claims 1 to 9, further comprising: a communication information providing unit that provides information stored in the communication information storage unit to the terminal device as needed.
前記通信情報提供部は、前記端末装置からの指示に応じて、前記通信情報格納部に格納されている任意のろう者の静止画像、氏名及び特徴的な識別情報を前記端末装置に提供し、
前記端末装置の前記第1表示処理部は、前記通信情報提供部から提供されたろう者の静止画像、氏名及び特徴的な識別情報を前記第1表示装置の同一画面上に表示させることを特徴とする請求項10に記載の手話通訳システム。The communication information storage unit, for each of a plurality of deaf people, stores a still image of the deaf person, name and characteristic identification information,
The communication information providing unit, in response to an instruction from the terminal device, a still image of any deaf person stored in the communication information storage unit, providing the terminal device with the name and characteristic identification information,
The first display processing unit of the terminal device displays a still image, a name, and characteristic identification information of a deaf person provided from the communication information providing unit on the same screen of the first display device. The sign language interpreting system according to claim 10.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002274423A JP2004110615A (en) | 2002-09-20 | 2002-09-20 | Sign Language Interpretation System |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2002274423A JP2004110615A (en) | 2002-09-20 | 2002-09-20 | Sign Language Interpretation System |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| JP2004110615A true JP2004110615A (en) | 2004-04-08 |
Family
ID=32270897
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002274423A Pending JP2004110615A (en) | 2002-09-20 | 2002-09-20 | Sign Language Interpretation System |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP2004110615A (en) |
Cited By (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007286435A (en) * | 2006-04-18 | 2007-11-01 | Chugoku Electric Power Co Inc:The | Sign language service support system |
| JP2008210375A (en) * | 2007-02-01 | 2008-09-11 | Denso Corp | Driver management device and operation management system |
| JP2013015939A (en) * | 2011-07-01 | 2013-01-24 | Nec System Technologies Ltd | Understanding support system, support terminal, understanding support method and program |
-
2002
- 2002-09-20 JP JP2002274423A patent/JP2004110615A/en active Pending
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2007286435A (en) * | 2006-04-18 | 2007-11-01 | Chugoku Electric Power Co Inc:The | Sign language service support system |
| JP2008210375A (en) * | 2007-02-01 | 2008-09-11 | Denso Corp | Driver management device and operation management system |
| US8164463B2 (en) | 2007-02-01 | 2012-04-24 | Denso Corporation | Driver management apparatus and travel management system |
| JP2013015939A (en) * | 2011-07-01 | 2013-01-24 | Nec System Technologies Ltd | Understanding support system, support terminal, understanding support method and program |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| KR100698932B1 (en) | The Sign Language Interpretation System By Using The Sign Language Interpretation Video Telephone And Its supplementary Device | |
| CN108683806B (en) | Anti-disturbing method, mobile terminal and computer readable storage medium | |
| US8319818B2 (en) | Information processing device, information processing method and storage medium storing computer program | |
| JP2004336267A (en) | Call handling device, intercom device, and telephone device | |
| JP2006217628A (en) | Transmission / reception apparatus and transmission method for providing multi-person image communication | |
| CN109246315B (en) | Incoming call processing method in online game process, mobile terminal and readable storage medium | |
| JP2000068882A (en) | Wireless communication device | |
| CN107682541B (en) | Audio control method for screen projection, mobile terminal and storage medium | |
| KR100678209B1 (en) | Image Control Method of Mobile Terminal | |
| CN112492340B (en) | Live broadcast audio acquisition method, mobile terminal and computer readable storage medium | |
| JP4378250B2 (en) | Videophone and program | |
| US20010055058A1 (en) | Method and system for video telephony | |
| JP2003092628A (en) | Phone relay service method | |
| JP2004110615A (en) | Sign Language Interpretation System | |
| JP2004193809A (en) | Communication device | |
| JP2005151073A (en) | Portable terminal equipment having videophone function | |
| JP2932027B2 (en) | Videophone equipment | |
| CN112532787B (en) | Earphone audio data processing method, mobile terminal and computer readable storage medium | |
| JP2005294927A (en) | Video doorphone system | |
| WO2006028181A1 (en) | Communication terminal and communication method thereof | |
| EP2469812A1 (en) | Image display apparatus, communications control method of the same, and communications control system | |
| KR100945162B1 (en) | Ring back tone providing system and method | |
| CN110278402B (en) | Dual-channel audio processing method and device and computer readable storage medium | |
| KR101776652B1 (en) | Apparatus and method for changing call mode in portable terminal | |
| CN112672213A (en) | Video information processing method and device and computer readable storage medium |