[go: up one dir, main page]

JP2008172359A - IP intercom system - Google Patents

IP intercom system Download PDF

Info

Publication number
JP2008172359A
JP2008172359A JP2007001759A JP2007001759A JP2008172359A JP 2008172359 A JP2008172359 A JP 2008172359A JP 2007001759 A JP2007001759 A JP 2007001759A JP 2007001759 A JP2007001759 A JP 2007001759A JP 2008172359 A JP2008172359 A JP 2008172359A
Authority
JP
Japan
Prior art keywords
data
voice
unit
character data
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007001759A
Other languages
Japanese (ja)
Inventor
Shoji Shiba
昇司 柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2007001759A priority Critical patent/JP2008172359A/en
Publication of JP2008172359A publication Critical patent/JP2008172359A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Interconnected Communication Systems, Intercoms, And Interphones (AREA)

Abstract

【課題】相手方が耳が不自由であったり、言葉を話すことが困難な場合であっても、双方向での通信が可能となる。
【解決手段】子機1と複数の親機PC2とがネットワークで接続されているIPインターホンシステムであって、子機1は、文字データを入力する文字データ入力手段と、文字データを音声データに変換する音声処理手段と、文字データおよび音声データを親機PC2に送信する送信手段とを備え、親機PC2は、子機1から送信された文字データおよび音声データを受信する受信手段と、文字データを画面表示する表示手段と、音声データに基づく合成音声を出力する音声出力手段とを備えている。
【選択図】図1
Bidirectional communication is possible even if the other party is deaf or difficult to speak.
An IP intercom system in which a slave unit 1 and a plurality of master units PC2 are connected via a network, the slave unit 1 includes character data input means for inputting character data, and character data as voice data. A voice processing means for converting; and a sending means for sending the character data and the voice data to the parent device PC2. The parent device PC2 receives a character data and a voice data transmitted from the child device 1, and a character means. Display means for displaying data on the screen and voice output means for outputting synthesized voice based on the voice data are provided.
[Selection] Figure 1

Description

この発明はIP(インターネットプロトコル)インターホンシステムに関し、特に、オフィスビルやマンション等の集合住宅等に設置されるIPインターホンシステムに関する。   The present invention relates to an IP (Internet Protocol) intercom system, and more particularly to an IP intercom system installed in an apartment building such as an office building or a condominium.

従来のインターホンシステムにおいては、訪問者や宅配業者の人は、建物の入り口近傍に設置されているインターホンシステムの子機のボタンを押して、相手先の部屋番号を入力して、相手先の部屋に設置されている親機を呼び出す。相手先の人は、呼び出された親機のマイクとスピーカーを用いて、訪問者との通話を行う。その結果、通行を許可してよいと相手先の人が判断した場合には、親機のボタンを操作して、ドアの解錠操作を行う。当該解錠操作により、解錠信号が子機を介して制御装置に送信され、電気錠が解錠され、ドアが開扉する。   In a conventional intercom system, a visitor or courier person presses the button on the handset of the intercom system installed near the entrance of the building, enters the destination's room number, and enters the destination's room. Call the installed base unit. The other party talks with the visitor using the microphone and speaker of the called main unit. As a result, when the other party's person determines that the traffic can be permitted, the door is unlocked by operating the button on the master unit. By the unlocking operation, an unlocking signal is transmitted to the control device via the slave unit, the electric lock is unlocked, and the door is opened.

しかしながら、このような従来のインターホンシステムでは、下記のような問題点があった。   However, such a conventional intercom system has the following problems.

1.親機と子機が通話をする際、子機を操作した人(親機を呼び出した人)が耳が不自由な人であった場合、親機で話した言葉が聞き取れず、双方向で会話ができない。
2.さらに、上記1に加え、子機を操作する人が言葉を話すことが困難な人であった場合、親機からの言葉が聞き取れても、自身が話したいことを親機に対して伝えることができない。
3.子機と親機間で通話する場合には、親機側には通話を行うためのデバイス(スタンドマイク、ハンドホン、ヘッドホンマイク等)を接続しておく必要がある。
4.子機からの呼び出しがあった際、呼び出されている親機側の人が応答できる状況でない(手が空いていない)場合に、子機の人はずっと親機からの応答を待ったままとなってしまう。
1. When the base unit and the handset make a call, if the person who operated the handset (the person who called the base unit) is a deaf person, the words spoken on the base unit cannot be heard, I can't talk.
2. In addition to 1 above, if the person who operates the handset is a person who is difficult to speak, even if he / she can hear the words from the base unit, tell the base unit that he / she wants to speak I can't.
3. When a call is made between the child device and the parent device, it is necessary to connect a device (a stand microphone, a handphone, a headphone microphone, etc.) for making a call to the parent device side.
4). When there is a call from the handset, if the person on the main handset is not in a situation where it can respond (the hand is not available), the handset will always wait for a reply from the handset. End up.

また、従来の他のインターホンシステムとして、施解錠時に、使用者に所望のメッセージを表示部に表示するものが提案されている(例えば、特許文献1参照。)。当該メッセージの内容は、管理室に設置されたパソコンや、携帯型のデータ入出力器などから入力されるものであり、例えば、住人が不在時に配達された配達物を管理人が一時的に預かった場合等に使用される。   Another conventional intercom system has been proposed that displays a desired message on a display unit to a user during locking and unlocking (see, for example, Patent Document 1). The content of the message is input from a personal computer installed in the management room or a portable data input / output device. For example, the administrator temporarily keeps deliveries delivered when the resident is absent. Used when

特開2006−188888号公報JP 2006-188888 A

上記の特許文献1に記載された従来のシステムにおいては、相手方が耳が不自由であったり、言葉を話すことが困難な場合であっても、一方的にメッセージを伝えることは可能である。しかしながら、この場合においても、やはり、上記の1〜4の問題点は解決できていない。   In the conventional system described in Patent Document 1, even if the other party is deaf or it is difficult to speak a language, it is possible to transmit a message unilaterally. However, even in this case, the above problems 1 to 4 cannot be solved.

この発明は、かかる問題点を解決するためになされたものであり、相手方が耳が不自由であったり、言葉を話すことが困難な場合であっても、双方向での通信が可能なIPインターホンシステムを得ることを目的としている。   The present invention has been made to solve such a problem, and is capable of bidirectional communication even when the other party is deaf or difficult to speak. The purpose is to obtain an intercom system.

この発明は、少なくとも1台の子機と2台以上の親機とがネットワークで接続されているIPインターホンシステムであって、前記子機は、文字データを入力する文字データ入力手段と、前記文字データを音声データに変換する音声処理手段と、前記文字データおよび前記音声データを親機に送信する送信手段とを備え、前記親機は、前記子機から送信された前記文字データおよび前記音声データを受信する受信手段と、前記文字データを画面表示する表示手段と、前記音声データに基づく合成音声を出力する音声出力手段とを備えていることを特徴とするIPインターホンシステムである。   The present invention is an IP intercom system in which at least one slave unit and two or more master units are connected via a network, the slave unit including character data input means for inputting character data, and the character Voice processing means for converting data into voice data; and transmission means for sending the character data and the voice data to a master unit, wherein the master unit transmits the character data and the voice data transmitted from the slave unit. The IP intercom system is characterized by comprising: receiving means for receiving a message; display means for displaying the character data on a screen; and voice output means for outputting synthesized voice based on the voice data.

この発明は、少なくとも1台の子機と2台以上の親機とがネットワークで接続されているIPインターホンシステムであって、前記子機は、文字データを入力する文字データ入力手段と、前記文字データを音声データに変換する音声処理手段と、前記文字データおよび前記音声データを親機に送信する送信手段とを備え、前記親機は、前記子機から送信された前記文字データおよび前記音声データを受信する受信手段と、前記文字データを画面表示する表示手段と、前記音声データに基づく合成音声を出力する音声出力手段とを備えていることを特徴とするIPインターホンシステムであるので、相手方が耳が不自由であったり、言葉を話すことが困難な場合であっても、双方向での通信が可能となる。   The present invention is an IP intercom system in which at least one slave unit and two or more master units are connected via a network, the slave unit including character data input means for inputting character data, and the character Voice processing means for converting data into voice data; and transmission means for sending the character data and the voice data to a master unit, wherein the master unit transmits the character data and the voice data transmitted from the slave unit. Since the IP interphone system is characterized by comprising: a receiving means for receiving the voice data; a display means for displaying the character data on a screen; and a voice output means for outputting a synthesized voice based on the voice data. Two-way communication is possible even when the user is deaf or difficult to speak.

実施の形態1.
図1は、この発明の実施の形態1に係るIPインターホンシステムの構成図である。図1に示されるように、この発明の実施の形態1に係るIPインターホンシステムは、建物の入り口近傍に設置された少なくとも1台のインターホン子機1(以下、子機1とする。)と、子機1から呼び出されるインターホン親機パーソナルコンピュータ2(以下、親機PC2とする。)と、入り口のドアに対して設置され、ドアの施解錠を行う電気錠4と、電気錠4の施解錠を制御するコントローラ3とを備えている。なお、親機PC2は、図1に示すように、複数個あり、建物内の各部屋内に設置されているものである。各親機PC2と子機1とはインターネット等のネットワークで接続されている。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of an IP intercom system according to Embodiment 1 of the present invention. As shown in FIG. 1, the IP intercom system according to Embodiment 1 of the present invention includes at least one interphone slave unit 1 (hereinafter referred to as a slave unit 1) installed near the entrance of a building. Interphone main unit personal computer 2 (hereinafter referred to as “main unit PC 2”) called from slave unit 1, electric lock 4 installed on the door of the entrance and locking / unlocking the door, and locking / unlocking of electric lock 4 And a controller 3 for controlling. As shown in FIG. 1, there are a plurality of master devices PC2 installed in each room in the building. Each parent device PC2 and the child device 1 are connected by a network such as the Internet.

図2に子機1の構成図を、図3に親機PC2の構成図を示す。また、図4に子機の動作のフローチャートを、図5に親機PC2の動作のフローチャートを示す。   FIG. 2 shows a configuration diagram of the slave unit 1, and FIG. 3 shows a configuration diagram of the master unit PC2. 4 shows a flowchart of the operation of the slave unit, and FIG. 5 shows a flowchart of the operation of the master unit PC2.

図2に示すように、子機1には、液晶タッチパネル等の表示入力手段である液晶部11(LCD)と、液晶部11の制御を行うLCD制御部12と、アドレス帳データを記憶しているアドレス帳データ記憶装置13と、親機PC2との通信の制御を行う通信制御部14と、CPUから構成され、内部動作の制御を行う制御部15と、訪問者の顔の画像または映像を処理するカメラ制御部16と、文字データを、合成音声を生成するための音声データに変換する音声処理部17と、訪問者の声が入力されるマイク18と、音声が発声されるスピーカー19と、訪問者の顔を撮影するカメラ20とから構成されている。なお、アドレス帳データとは、子機1の各ボタンと親機PC2のIPアドレスとが対応付けられて記憶されたテーブルのことである。また、子機1には、親機2に送信するための定型文(文字データ)が予め登録されている定型文記憶装置(図示せず)も設けられている。   As shown in FIG. 2, the slave unit 1 stores a liquid crystal unit 11 (LCD) that is a display input unit such as a liquid crystal touch panel, an LCD control unit 12 that controls the liquid crystal unit 11, and address book data. An address book data storage device 13, a communication control unit 14 that controls communication with the parent device PC 2, a control unit 15 that is configured by a CPU and controls internal operations, and an image or video of a visitor's face. A camera control unit 16 for processing, a voice processing unit 17 for converting character data into voice data for generating synthesized voice, a microphone 18 for inputting a visitor's voice, and a speaker 19 for generating voice. And a camera 20 for photographing a visitor's face. The address book data is a table in which each button of the child device 1 and the IP address of the parent device PC 2 are stored in association with each other. Further, the slave unit 1 is also provided with a fixed phrase storage device (not shown) in which a fixed phrase (character data) to be transmitted to the master unit 2 is registered in advance.

親機PC2には、図3に示すように、ディスプレイ装置から構成された親機画面アプリケーションを有するディスプレイ31と、ディスプレイ31の動作の制御を行う表示制御部32と、ユーザーの音声が入力されるマイク33と、訪問者の音声または合成音声が発声されるスピーカー34と、訪問者とユーザーとが通話を行うためのハンドホン35と、文字データを音声データに変換する音声処理部36と、親機PC2の内部動作の制御を行うCPUから構成された制御部37と、子機1との通信の制御を行う通信制御部38とから構成されている。また、親機PC2には、子機1に送信するための定型文(文字データ)が予め登録されている定型文記憶装置(図示せず)も設けられている。なお、親機PC2は、パソコン等の計算機から構成されているので、キーボードやマウス等の入力装置も備わっている。   As shown in FIG. 3, the base unit PC 2 receives a display 31 having a base unit screen application composed of a display device, a display control unit 32 that controls the operation of the display 31, and a user's voice. A microphone 33, a speaker 34 from which a visitor's voice or synthesized voice is uttered, a handphone 35 for making a call between the visitor and the user, a voice processing unit 36 for converting character data into voice data, and a master unit The control unit 37 includes a CPU that controls the internal operation of the PC 2 and a communication control unit 38 that controls communication with the slave unit 1. The master PC 2 is also provided with a fixed sentence storage device (not shown) in which fixed phrases (character data) to be transmitted to the slave 1 are registered in advance. Since the master PC 2 is composed of a computer such as a personal computer, it is also equipped with an input device such as a keyboard and a mouse.

動作について説明する。
図4及び図5に示すように、子機1の液晶部11に表示されている呼び出しボタンを訪問者が押すと(ステップS41)、制御部15は、アドレス帳データ記憶装置13に記憶されているアドレス帳データから、当該呼び出しボタンに割り当てられているIPアドレスを取得し(ステップS42)、取得したIPアドレスに対応する親機PC2を、通信制御部14の制御により、ネットワークを介して呼び出す(ステップS43)。
The operation will be described.
As shown in FIGS. 4 and 5, when the visitor presses the call button displayed on the liquid crystal unit 11 of the slave unit 1 (step S41), the control unit 15 is stored in the address book data storage device 13. The IP address assigned to the call button is acquired from the address book data (step S42), and the parent device PC2 corresponding to the acquired IP address is called via the network under the control of the communication control unit 14 ( Step S43).

これにより、親機PC2は、図5に示すように、子機1からの呼び出しを通信制御部38が受信すると、ディスプレイ31の親機画面アプリケーションは、呼び出しを受信したことを画面に表示し、ユーザーに対して、子機1からの呼び出しがあることを通知する(ステップS51)。ユーザーは呼び出しがあることを認識すると、親機画面アプリケーションにより、通話を開始するための操作を行う。これにより、子機1との通話が開始される(ステップS52)。   Thereby, as shown in FIG. 5, when the communication control unit 38 receives a call from the child device 1, the parent device PC 2 displays on the screen that the parent device screen application of the display 31 has received the call, The user is notified that there is a call from the handset 1 (step S51). When the user recognizes that there is a call, the user performs an operation for starting a call by the master screen application. Thereby, the telephone call with the subunit | mobile_unit 1 is started (step S52).

なお、このとき、カメラ20により訪問者の顔が撮影されて、カメラ制御部16により、当該画像データが処理されて、親機PC2に送信されるようにしてもよい。これにより、親機PC2の画面に訪問者の顔写真が表示され、親機PC2のユーザーは、当該画像から、訪問者が誰であるかを容易に知ることができる。   At this time, the face of the visitor may be photographed by the camera 20, the image data may be processed by the camera control unit 16, and transmitted to the parent device PC 2. Thereby, a visitor's face photograph is displayed on the screen of the main unit PC2, and the user of the main unit PC2 can easily know who the visitor is from the image.

子機1においては、ステップS43の後、所定時間経過しても、親機PC2との通話が開始されない場合には、呼び出しタイムアウトとなり(ステップS45)、処理が終了される。一方、ステップS52の処理により、通話が開始された(ステップS44)場合には、訪問者が、子機1の液晶部11の画面において、文字入力ボタンを押すと(ステップS46)、文字入力画面が表示される(ステップS48)。文字入力画面には、ひらがなやアルファベットを入力するための文字入力キーや、予め登録されている定型文リスト等が表示されているので、その画面より、文字データが入力されたり、定型文が選択され(ステップS46)、確定ボタンの押下により、入力が確定されると(ステップS410)、入力された文字データをそのまま送信するか、あるいは、音声処理部17にて、合成音声を生成するための音声データに変換して、当該音声データを通信制御部14を介して、親機PC2に対して送信して(ステップS411)、通話を終了する(ステップS412)。なお、ステップS46で、文字入力ボタンが押されなかった場合には、親機PC2との通話は音声にて行うこととする(ステップS47)。   In handset 1, if a call with base unit PC 2 is not started even after a predetermined time has elapsed after step S 43, a call timeout occurs (step S 45), and the process ends. On the other hand, when a call is started by the process of step S52 (step S44), when the visitor presses the character input button on the screen of the liquid crystal unit 11 of the slave unit 1 (step S46), the character input screen is displayed. Is displayed (step S48). On the character input screen, character input keys for entering hiragana and alphabets, pre-registered standard text lists, etc. are displayed. From this screen, character data can be input and standard text can be selected. If the input is confirmed by pressing the confirm button (step S410), the input character data is transmitted as it is, or the speech processing unit 17 generates a synthesized speech. The voice data is converted into the voice data, and the voice data is transmitted to the master PC 2 via the communication control unit 14 (step S411), and the call is terminated (step S412). If the character input button is not pressed in step S46, the call with the parent PC 2 is performed by voice (step S47).

親機PC2は、通信制御部38により、子機1からのデータの受信の有無を判定し(ステップS53)、データ受信があった場合には、受信したデータが音声データか否かを判定する(ステップS54)。受信したデータが音声データでなく、文字データだった場合には、表示制御部32が、その文字データをそのままディスプレイ31の画面上に表示し(ステップS56)、処理を終了する(ステップS57)。また、受信したデータが音声データだった場合には、音声処理部36により、当該音声データに基づく合成音声を生成してスピーカー34から再生させ、処理を終了する(ステップS57)。これにより、子機1側の人が言葉を話せなくても、親機PC2とのやり取りを行うことが可能となる。また、親機PC2にスピーカー等がなく、音声を聞くことができない場合にも、親機PC2は画面上に表示される文字を見て対応が可能となる。   Master device PC2 determines whether or not data is received from slave device 1 by means of communication control unit 38 (step S53), and if data is received, determines whether or not the received data is audio data. (Step S54). If the received data is not voice data but character data, the display control unit 32 displays the character data as it is on the screen of the display 31 (step S56), and ends the processing (step S57). If the received data is audio data, the audio processing unit 36 generates synthesized audio based on the audio data and reproduces it from the speaker 34, and the process ends (step S57). Thereby, even if the person on the side of handset 1 does not speak a language, it becomes possible to exchange with base unit PC2. Further, even when the parent device PC2 does not have a speaker or the like and cannot hear voice, the parent device PC2 can respond by looking at the characters displayed on the screen.

以上のように、本実施の形態においては、少なくとも1台の子機1(インターホン機器)と2台以上の親機PC2(インターホン親機パソコン)がネットワークで接続されているIPインターホンシステムであって、子機1の液晶部11や文字入力キーで入力した文字データや音声データが親機PC2に送信され、親機PC2でそのデータが表示又は再生されるようにしたので、IPインターホンシステムを使用するユーザーが障害者(耳が不自由であったり、言葉を話すことが困難な人)であった場合にも、親機PC2側の人が対応することが可能となる。   As described above, the present embodiment is an IP intercom system in which at least one slave unit 1 (interphone device) and two or more master units PC2 (interphone master computer) are connected via a network. Since the character data and voice data input with the liquid crystal unit 11 and the character input key of the handset 1 are transmitted to the base unit PC2, and the data is displayed or reproduced on the base unit PC2, the IP intercom system is used. Even if the user to be disabled is a person with a disability (a person who is deaf or difficult to speak), the person on the parent device PC 2 side can respond.

実施の形態2.
本実施の形態2に係るIPインターホンシステムの構成は、上述の実施の形態1で示した図1〜図3に示したものと同じであるため、それらを参照することとし、ここでは、その説明を省略する。図6に、本実施の形態2に係るIPインターホンシステムの子機1の動作のフローチャートを、図7に親機PC2の動作のフローチャートを示す。
Embodiment 2. FIG.
Since the configuration of the IP intercom system according to the second embodiment is the same as that shown in FIGS. 1 to 3 shown in the first embodiment, the description thereof will be made here. Is omitted. FIG. 6 shows a flowchart of the operation of the slave unit 1 of the IP intercom system according to the second embodiment, and FIG. 7 shows a flowchart of the operation of the master unit PC2.

本実施の形態2においては、親機PC2が、子機1との通話開始後に、親機PC2に音声で通話するためのデバイスがない場合や、あるいは、通話に対応する時間がない場合や、子機1から送信されてきた文字データの内容(例えば、障害者であること)から、音声では対応できないと判断された場合などについて説明する。   In the second embodiment, after the parent device PC2 starts a call with the child device 1, there is no device for making a voice call to the parent device PC2, or when there is no time for the call, A case will be described in which it is determined that voice cannot be handled from the contents of character data transmitted from the slave unit 1 (for example, being a disabled person).

図6および図7において、ステップS41〜S44およびステップS51〜S52の動作については、図4および図5の動作と同じであるため、説明を省略する。本実施の形態2においては、親機PC2が、子機1との通話開始後に、親機PC2に音声で通話するためのデバイスがない場合には、親機PC2に予め用意されている音声データの中からユーザーが選択したものを、通信制御部38を介して子機1に送信する(ステップS74)。また、親機PC2が、子機1との通話開始後に、子機1から送信されてきた文字データの内容(例えば、障害者であること)から、音声では対応できないとユーザーにより判断された場合には、ユーザーが文字データを親機PC2の画面より入力し、その文字データを子機1に対して通信制御部38を介して送信する(ステップS73,S75)。また、親機PC2が、子機1との通話開始後に、ユーザーが通話に対応する時間がない場合には、予め、ユーザーが留守番モードに親機PC2を設定しておくことにより、親機PC2が、予め用意されている音声データまたは文字データを子機1に通信制御部38を介して自動的に送信する(ステップS73,75またはS74)。この際、文字データは、ユーザーの操作または設定により、あるいは、自動的に、音声処理部36により、音声データに変換することも可能とする。   6 and 7, the operations in steps S41 to S44 and steps S51 to S52 are the same as those in FIGS. 4 and 5, and thus the description thereof is omitted. In the present second embodiment, when the base unit PC2 does not have a device for making a voice call to the base unit PC2 after the start of a call with the base unit 1, voice data prepared in advance in the base unit PC2 The one selected by the user is transmitted to the slave unit 1 via the communication control unit 38 (step S74). Further, when the base unit PC2 determines that the voice cannot be handled by the user from the content of the character data transmitted from the handset 1 (for example, being a disabled person) after the start of a call with the handset 1, The user inputs character data from the screen of the parent device PC 2 and transmits the character data to the child device 1 via the communication control unit 38 (steps S73 and S75). In addition, if the user does not have time to respond to the call after the start of the call with the child device 1, the user sets the parent device PC2 in the answering machine in advance, so that the parent device PC2 However, voice data or character data prepared in advance is automatically transmitted to the slave unit 1 via the communication control unit 38 (steps S73, 75 or S74). At this time, the character data can be converted into voice data by the voice processing unit 36 by user operation or setting or automatically.

子機1では、通信制御部14により、親機PC2からのデータの受信の有無を判定し(ステップS65)、データ受信があった場合には、受信したデータが音声データか否かを判定する(ステップS66)。受信したデータが音声データでなく、文字データだった場合には、LCD制御部12が、その文字データをそのまま液晶部11の画面上に表示し(ステップS68)、通話を終了する(ステップS69)。また、受信したデータが音声データだった場合には、音声処理部17により、スピーカー19から当該音声データに基づく音声を再生させ、通話を終了する(ステップS69)。これにより、子機1側の人が耳の不自由な人であった場合でも、画面に文宇が表示されるので、親機PC2とのやりとりが可能となる。また、親機PC2に音声入力デバイス(スタンドマイク、ハンドホン)がない場合や、時間に余裕がなくて通話の対応が出来ない場合にも、予め用意しておいた音声データを選択するだけで、子機1に対して親機PC2のメッセージを伝えることが可能となる。   In the child device 1, the communication control unit 14 determines whether or not data is received from the parent device PC 2 (step S65). If data is received, it is determined whether or not the received data is audio data. (Step S66). If the received data is not voice data but character data, the LCD control unit 12 displays the character data as it is on the screen of the liquid crystal unit 11 (step S68) and ends the call (step S69). . If the received data is audio data, the audio processing unit 17 reproduces audio based on the audio data from the speaker 19 and ends the call (step S69). Thereby, even if the person on the side of the handset 1 is a person who is deaf, Bunyu is displayed on the screen, so that it is possible to communicate with the base unit PC2. In addition, when there is no voice input device (stand microphone, handphone) in the main unit PC2 or when there is not enough time to handle a call, simply select the prepared voice data, It becomes possible to transmit the message of the parent device PC 2 to the child device 1.

以上のように、本実施の形態においては、上記実施の形態1と同様の効果が得られるとともに、さらに、親機PC2から、入力された文字データや予め用意していた定型文データや音声データを子機1に対して送信すると、そのデータを子機1の液晶部11に表示又は合成音声を再生するようにしたので、子機1と通話する際に、親機PC2にマイクやスピーカーが無くても対応することができる。また、親機PC2から送信されたデータを子機1に表示することで、子機1を使用するユーザーが障害者(耳が不自由な人)であった場合の対応も可能となる。   As described above, in the present embodiment, the same effects as those of the first embodiment can be obtained, and furthermore, the input character data, the fixed sentence data and the voice data prepared in advance from the master PC 2 can be obtained. Is transmitted to the child device 1, the data is displayed on the liquid crystal unit 11 of the child device 1 or the synthesized voice is reproduced. Therefore, when talking with the child device 1, a microphone or a speaker is connected to the parent device PC2. It can be handled even without it. Further, by displaying the data transmitted from the parent device PC2 on the child device 1, it is possible to cope with the case where the user who uses the child device 1 is a handicapped person (a person who is hard of hearing).

この発明の実施の形態1および2に係るIPインターホンシステムの構成を示した構成図である。It is the block diagram which showed the structure of the IP intercom system which concerns on Embodiment 1 and 2 of this invention. この発明の実施の形態1および2に係るIPインターホンシステムにおける子機の構成を示したブロック図である。It is the block diagram which showed the structure of the subunit | mobile_unit in the IP intercom system which concerns on Embodiment 1 and 2 of this invention. この発明の実施の形態1および2に係るIPインターホンシステムにおける親機PCの構成を示したブロック図である。It is the block diagram which showed the structure of main | base station PC in the IP intercom system which concerns on Embodiment 1 and 2 of this invention. この発明の実施の形態1に係るIPインターホンシステムの子機の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the subunit | mobile_unit of the IP intercom system which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係るIPインターホンシステムの親機PCの動作を示したフローチャートである。It is the flowchart which showed operation | movement of the main | base station PC of the IP intercom system which concerns on Embodiment 1 of this invention. この発明の実施の形態2に係るIPインターホンシステムの子機の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the subunit | mobile_unit of the IP intercom system which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係るIPインターホンシステムの親機PCの動作を示したフローチャートである。It is the flowchart which showed operation | movement of the main | base station PC of the IP intercom system which concerns on Embodiment 2 of this invention.

符号の説明Explanation of symbols

1 子機、2 親機PC、3 コントローラ、4 電気錠、11 液晶部、12 LCD制御部、13 アドレス帳データ記憶装置、14 通信制御部、15 制御部、16 カメラ制御部、17 音声処理部、18 マイク、19 スピーカー、20 カメラ、31 ディスプレイ、32 表示制御部、33 マイク、34 スピーカー、35 ハンドホン、36 音声処理部、37 CPU、38 通信制御部。   1 slave unit, 2 master unit PC, 3 controller, 4 electric lock, 11 liquid crystal unit, 12 LCD control unit, 13 address book data storage device, 14 communication control unit, 15 control unit, 16 camera control unit, 17 voice processing unit , 18 microphone, 19 speaker, 20 camera, 31 display, 32 display control unit, 33 microphone, 34 speaker, 35 handphone, 36 audio processing unit, 37 CPU, 38 communication control unit.

Claims (3)

少なくとも1台の子機と2台以上の親機とがネットワークで接続されているIPインターホンシステムであって、
前記子機は、
文字データを入力する文字データ入力手段と、
前記文字データを音声データに変換する音声処理手段と、
前記文字データおよび前記音声データを親機に送信する送信手段と
を備え、
前記親機は、
前記子機から送信された前記文字データおよび前記音声データを受信する受信手段と、
前記文字データを画面表示する表示手段と、
前記音声データに基づく合成音声を出力する音声出力手段と
を備えている
ことを特徴とするIPインターホンシステム。
An IP intercom system in which at least one slave unit and two or more master units are connected via a network,
The slave is
Character data input means for inputting character data;
Voice processing means for converting the character data into voice data;
Transmission means for transmitting the character data and the voice data to a master unit,
The base unit is
Receiving means for receiving the character data and the voice data transmitted from the slave unit;
Display means for displaying the character data on a screen;
An IP intercom system comprising: voice output means for outputting synthesized voice based on the voice data.
前記親機は、
文字データを入力する文字データ入力手段と、
前記文字データを音声データに変換する音声処理手段と、
前記文字データおよび前記音声データを子機に送信する送信手段と
を備え、
前記子機は、
前記親機から送信された前記文字データおよび前記音声データを受信する受信手段と、
前記文字データを画面表示する表示手段と、
前記音声データに基づく合成音声を出力する音声出力手段と
を備えている
ことを特徴とする請求項1に記載のIPインターホンシステム。
The base unit is
Character data input means for inputting character data;
Voice processing means for converting the character data into voice data;
Transmission means for transmitting the character data and the voice data to the slave unit,
The slave is
Receiving means for receiving the character data and the voice data transmitted from the master unit;
Display means for displaying the character data on a screen;
The IP intercom system according to claim 1, further comprising: a voice output unit that outputs a synthesized voice based on the voice data.
前記親機および前記子機は、
定型文を構成する文字データを記憶する定型文記憶手段と、
前記定型文の中から1つを選択する指定入力を受け付ける定型文選択手段と
をさらに備えたことを特徴とする請求項1または2に記載のIPインターホンシステム。
The master unit and the slave unit are
A fixed sentence storage means for storing character data constituting the fixed sentence;
The IP intercom system according to claim 1, further comprising: a fixed sentence selection unit that receives a designation input for selecting one of the fixed sentences.
JP2007001759A 2007-01-09 2007-01-09 IP intercom system Pending JP2008172359A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007001759A JP2008172359A (en) 2007-01-09 2007-01-09 IP intercom system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007001759A JP2008172359A (en) 2007-01-09 2007-01-09 IP intercom system

Publications (1)

Publication Number Publication Date
JP2008172359A true JP2008172359A (en) 2008-07-24

Family

ID=39700064

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007001759A Pending JP2008172359A (en) 2007-01-09 2007-01-09 IP intercom system

Country Status (1)

Country Link
JP (1) JP2008172359A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116233A (en) * 2016-01-25 2016-06-23 パナソニックIpマネジメント株式会社 Information distribution system and system control device
JP7625244B2 (en) 2020-12-14 2025-02-03 智徳 曲 Intercom System

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116233A (en) * 2016-01-25 2016-06-23 パナソニックIpマネジメント株式会社 Information distribution system and system control device
JP7625244B2 (en) 2020-12-14 2025-02-03 智徳 曲 Intercom System

Similar Documents

Publication Publication Date Title
JP3651508B2 (en) Information processing apparatus and information processing method
US6618704B2 (en) System and method of teleconferencing with the deaf or hearing-impaired
JP2008099330A (en) Information processing device, mobile phone
JPWO2004028161A1 (en) Sign language interpreting system and sign language interpreting method
JP2013115638A (en) Television telephone device
JP2002190874A (en) Personal computer, personal computer system, and system
JP2012257116A (en) Text and telephone conference system and text and telephone conference method
US12406652B2 (en) Electronic collaboration and communication method and system to facilitate communication with hearing or speech impaired participants
JP2010093554A (en) Communication device, text call control method and communication control program
JP2008172359A (en) IP intercom system
JP2005151073A (en) Portable terminal equipment having videophone function
JP2003234842A (en) Real-time handwritten communication system
JP2003283672A (en) Conference call system
JP2004248022A (en) Mobile phone and communicating method using the same
JP2002027039A (en) Communication interpreting system
JP3916387B2 (en) Telephone response computer system, board and recording medium for realizing the function of the system
JP2003110732A (en) Originating terminal, terminating terminal, mediate server and message output method
WO2003098955A1 (en) Information communication system
JP2004007482A (en) Telephone conference server and system therefor
JP4400598B2 (en) Call center system and control method for videophone communication
JP7694217B2 (en) COMMUNICATIONS TERMINAL, DETECTION METHOD, AND PROGRAM
JP2008211400A (en) PoC system with fixed message function, communication method, communication program, terminal, PoC server
KR100805252B1 (en) Call processing method of IP terminal and apparatus therefor
JP2022094003A (en) Intercom system
JP5650036B2 (en) Intercom system