[go: up one dir, main page]

JP2006136019A - System for displaying video in approximately real time - Google Patents

System for displaying video in approximately real time Download PDF

Info

Publication number
JP2006136019A
JP2006136019A JP2005380704A JP2005380704A JP2006136019A JP 2006136019 A JP2006136019 A JP 2006136019A JP 2005380704 A JP2005380704 A JP 2005380704A JP 2005380704 A JP2005380704 A JP 2005380704A JP 2006136019 A JP2006136019 A JP 2006136019A
Authority
JP
Japan
Prior art keywords
video
live
live video
user
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005380704A
Other languages
Japanese (ja)
Other versions
JP2006136019A5 (en
JP4473216B2 (en
Inventor
Masanobu Kujirada
雅信 鯨田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2005380704A priority Critical patent/JP4473216B2/en
Publication of JP2006136019A publication Critical patent/JP2006136019A/en
Publication of JP2006136019A5 publication Critical patent/JP2006136019A5/ja
Application granted granted Critical
Publication of JP4473216B2 publication Critical patent/JP4473216B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system for providing images in approximately real time which can provide users with the actual circumstances of distant places by images in real time. <P>SOLUTION: The system comprises: an image acquiring means of acquiring images of a number of places in approximately real time; an image capturing means of capturing the images in approximately real time by radio or cable (to capture images by methods such as transmitting over a network and browsing by accessing with browsing software for the Internet); and a display means of outputting the images (dynamic images or still images) captured by the image capturing means. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、各場所の映像をユーザー側に提供することができる、略リアルタイム映像表示システムに関する。   The present invention relates to a substantially real-time video display system capable of providing video of each place to a user side.

従来より、各地点の映像をCD−ROM又はハードディスクなどの記録媒体に記録しておき、それを所定のキーワード等の検索データに基づいて検索して表示するシステムが存在している。また、従来より、「匂いのデータ化、記録、通信、及び再生」の技術が提案されている(特許文献1参照)。
特開平7−55742号公報
2. Description of the Related Art Conventionally, there is a system that records video at each point on a recording medium such as a CD-ROM or a hard disk, and searches and displays it based on search data such as a predetermined keyword. Conventionally, a technique of “smell data conversion, recording, communication, and reproduction” has been proposed (see Patent Document 1).
JP 7-55742 A

しかしながら、前記の記録媒体に記録された映像は、「過去のもの」である(「生のもの」ではない)。そのため、実際の景色などは、季節の移り変わり、その日の天候、道路や建物の工事状況などにより、日々刻々変遷していくものであるのに、ユーザーが見ることができるのは「古い(新鮮でない)」ものでしかないという問題がある。また、仮にその記録媒体に記録された映像が更新直後のものだとしても、「今現在のこの瞬間のリアルタイムの状況を見たい」というユーザーの希望に応えることはできない。さらに、記録媒体への映像データの更新を頻繁に行うことは非常にコストがかかってしまうという問題もある。
本発明はこのような従来技術の問題点に着目してなされたもので、ユーザーに、任意の地点の実際の状況を映像でリアルタイムに提供することができる実況映像提供システムを提供し、且つ、この実況映像を利用して、ユーザーがGPS受信機などのデータから推測された「推測現在位置」に対応する地図上の地点が「実際の現在位置」と一致しているかどうかを確認することができる、実況映像を利用した現在位置確認システムを提供することを目的とする。
However, the video recorded on the recording medium is “past” (not “raw”). Therefore, the actual scenery changes every day depending on the changing seasons, the weather of the day, the construction conditions of the roads and buildings, etc., but the user can see “old (not fresh) ) ”Is a problem. Also, even if the video recorded on the recording medium is just after the update, it cannot meet the user's desire to “see the real-time situation at this moment now”. Furthermore, there is a problem that it is very expensive to frequently update the video data on the recording medium.
The present invention was made paying attention to such problems of the prior art, and provides a user with a live video providing system that can provide a user with an actual situation at any point in real time, and Using this live video, the user can confirm whether the point on the map corresponding to the “estimated current position” estimated from data such as a GPS receiver matches the “actual current position” The purpose is to provide a current location confirmation system using live video.

(関連技術)
本発明の「従来技術」に該当するかどうか(本願の「優先日(1996年6月11日)」より前から公知の事実であるかどうか)は明らかではないが、本願(特許法41条の国内優先日主張を伴う後の出願)の出願日の時点で本発明者が認識している「関連技術」としては、次のようなものが存在している。
(イ)ダイヤモンド社発行「週間ダイヤモンド別冊 1996.8号 インターネット超時間術」では、次のような記述がある。
「インターネットではいま、テレビカメラを据えて、観光名所を同時中継しているケースが多くなってきた。自宅の机の上から、スフィンクスの前とか、パリ凱旋門、ヒマラヤを望む丘など世界的な文化遺産、観光名所のジャストナウを、やがて眺めることができるだろう。」(同書 76頁)
「ホテルがロビーや玄関前にカメラを置いて、そのカメラをオンラインにしてリモコンで見るというのはどうですか。ウェブでそれを見て、「けっこう混んでるな」とか「おっ、あいつがいる」とか。そういうオンラインのカメラというのはウェブ上にも増えつつあるんです。」(同書 82頁)
インターネットのホームページの紹介として、「歴史街道 http://www.kiis.or/rekishi/ 泰 恵子さん
歴史街道のメインルートである伊勢、飛鳥、奈良、京都、大阪、神戸を説明文と写真(100枚以上)で散策することができます。(中略)各項目へのアクセスは地域別、時代別による検索と地図上でのマウスによる選択(クリッカブルマップ)があります。現在の情報提供は説明文と写真のみですが、(今後は)動画や音声情報も提供していく予定です。」(同書 133頁)
(ロ)1996年6月16日付け日本経済新聞は、「魔法の箱を駆使 世界の見方覆す」とい見出しの記事で、コンピュータ・アーティスト藤幡正樹氏を紹介する記事の中で、次のように述べている。
「最近は教鞭をとる慶応大学の学生らとインターネットを使ったプロジェクトに没頭している。例えば湘南藤沢キャンパスに取り付けたカメラが写す富士山の映像を、24時間リアルタイムで発信する試みを始めた。1日千人に上る世界中からのアクセス・ユーザーは、自分のパソコンでカメラの向きを変えたり、ズームインしたりすることもできる。」
(ハ)ダイヤモンド社により1996年8月31につ発行された「週間ダイヤモンド」の84頁には、「超整理日記 地図と写真の仮想旅行術(野口悠紀雄)」という記事の中に、次のような記載がある。
「インターネットで「バーチャル・ツアー」というものがある。画面に出ている地図をクリックすると、その地点の写真が現れるというものだ。」
(ニ)1996年9月3日付け日本経済新聞の広告欄において、「操作性高まる地図情報システム 住友電工システムズ」という見出しで、次のような記述がある。
「住友電工システムズがこの度開発、販売したWindows95専用デジタル道路地図「AtlaMate/Windows95版」は、…。(中略) 同製品はマルチメディア機能として、地図上に静止画や動画、音声の張り付けが可能となっている。」
また、この広告欄の中の「AtlaMate/Windows95版」の仕様書の記載の中に、次のような記載がある。
「豊富な登録機能 写真などの静止画、ビデオなどの動画、また音声などを地図上に登録可能」
(ホ)1996年9月30日付け日本経済新聞は、「インターネット活用 自宅で自然を感じて」とい見出しの記事で、次のように述べている。
「高知県佐川町はNECと共同で、インターネットで自然の風景を生中継で楽しめる「さかわインターネット放送局」を開設した。同町の虚空蔵山(標高675m)山頂にカメラを設置し、自宅や職場のパソコンからカメラを自由に動かして、足摺岬から室戸岬までの眺望を楽しめる。佐川地場産センターに開局した。カメラの映像を約3km離れたふもとの町営施設、永野町民館のカメラ制御装置に無線で伝送し、静止画像をインターネット上に提供する。パソコンからカメラを自由に遠隔操作し、左右約300度、上下約60度のパノラマを最大10倍のズームで楽しめる。インターネット放送局のアドレスはhttp://www/meshnet.or.jp/sakawa/ NECは5月からインターネット放送局を全国展開している。北海道の松前町、美瑛町、佐呂間町で開局し、2〜3年以内に100ケ所の観光地、景勝地にカメラを設置する計画。」
以上のように、本発明に関連する技術は、さまざまものがある。しかし、これらはいずれも、本発明と関連しているが、本発明はこれらの関連技術をさらに発展させたものであり、これらの関連技術は本発明の進歩性を否定するものではない。
(Related technology)
Whether it falls under the “prior art” of the present invention (whether it is a known fact before the “priority date (June 11, 1996)” of the present application) is not clear, but the present application (Patent Act Article 41) As the “related technology” recognized by the present inventor as of the filing date of the later application with the domestic priority date claim), there are the following.
(B) “Diamond weekly volume 1996.8 Internet super time technique” published by Diamond Inc. has the following description.
“On the Internet, there are now many cases where tourist attractions are broadcast simultaneously with TV cameras. From the top of your home desk, in front of the Sphinx, the Arc de Triomphe, the hills overlooking the Himalayas, and other global cultures You will soon be able to see the heritage and tourist attractions of Justnow. ”(Ibid., P. 76)
“How about a hotel with a camera in front of the lobby or the entrance, and seeing it online with a remote control? Look at it on the web and say,“ It ’s not too crowded ”or“ Oh, there is a guy ”. Such online cameras are also increasing on the web. (Ibid., P. 82)
As an introduction to the Internet homepage, “Historic Road http: //www.kiis.or/rekishi/Mr. Keiko Yasu Ishi, Asuka, Nara, Kyoto, Osaka, Kobe, which are the main routes of the historical road, and their photographs (100 (Omitted) Access to each item includes search by region and period, and selection with the mouse on the map (clickable map). Although it is only a photo, we will also provide video and audio information (in the future). ”(Page 133)
(B) The Nihon Keizai Shimbun, dated June 16, 1996, is an article that introduces computer artist Masaki Fujihata with an article titled “Use the magic box to overlook the world”. It states in.
“Recently I'm devoted to a project using the Internet with Keio University students who are teaching. For example, we started an attempt to send 24 hours a day in real time to Mt. Fuji imaged by a camera attached to the Shonan Fujisawa campus. “Thousands of users from around the world can turn their cameras and zoom in on their computers.”
(C) On page 84 of “Weekly Diamond” issued by Diamond, Inc. on August 31, 1996, in the article “Super Organizing Diary Map and Photo Virtual Traveling Technique (Takeo Noguchi)” There is such a description.
“There is a“ virtual tour ”on the Internet. When you click on the map on the screen, a picture of that point appears. "
(D) In the advertising section of the Nihon Keizai Shimbun dated September 3, 1996, there is the following description under the heading “Map information system with improved operability: Sumitomo Electric Systems”.
“The Windows 95 digital road map“ AtlaMate / Windows 95 ”, developed and sold by Sumitomo Electric Systems, is ... (Omitted) As a multimedia function, this product can paste still images, videos, and audio on a map. "
In addition, the following description is included in the description of the “AtlaMate / Windows 95 version” specification in this advertisement column.
“Abundant registration functions Still images such as photos, videos such as videos, and voices can be registered on the map”
(E) The Nihon Keizai Shimbun, dated September 30, 1996, stated in an article titled “Use the Internet to feel nature at home”:
“Sagawa Town, Kochi Prefecture, in collaboration with NEC, has opened the“ Sagawa Internet Broadcasting Station, ”which allows users to enjoy live scenery over the Internet live. A camera is installed at the summit of Mt. Kakuzo in the same town (at an altitude of 675m), and you can enjoy the view from Cape Ashizuri to Cape Muroto by moving the camera freely from your home or office computer. Opened at Sagawa Local Production Center. The camera video is transmitted wirelessly to the camera control device of Nagano Town Hall, a town-owned facility located about 3 km away, and still images are provided on the Internet. You can remotely control the camera from a personal computer and enjoy panoramas of about 300 degrees left and right and about 60 degrees up and down with a maximum zoom of 10 times. The address of the Internet broadcasting station is http: // www / meshnet. or. jp / sakawa / NEC has been developing Internet broadcasting stations nationwide since May. Opened in Matsumae Town, Biei Town and Saroma Town, Hokkaido, and plans to install cameras in 100 sightseeing spots and scenic spots within 2-3 years. "
As described above, there are various techniques related to the present invention. However, these are all related to the present invention, but the present invention is a further development of these related technologies, and these related technologies do not deny the inventive step of the present invention.

前述のような従来技術の課題を解決するための本発明による実況映像を利用した現在位置確認システムは、次のようなものである(実施例としては、例えば、段落番号0017,0018などの説明を参照)。
すなわち、本発明は、地図上の複数の地点に対応する実際の地点にそれぞれ設けられ、その地点の周辺の実況映像をリアルタイムに入力する映像入力手段であって、それぞれがネットワークに接続されている映像入力手段と、ユーザーの現在位置を推測する現在位置推測手段と、この現在位置推測手段により得られた推測現在位置に対応する地図上の地点を求める手段と、この地図上の地点を求める手段により求められた地点に対応する実際の地点に設けられた前記映像入力手段からの実況映像をネットワークを介して取り込む取り込み手段と、この取込まれた実況映像を表示する表示手段と、を備えたことを特徴とする実況映像を利用した現在位置確認システムである。
また、本発明は、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点にそれぞれ設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データ(緯度データ及び経度データの座標データなどから成る)を記録する実況映像識別データ記録手段と、ユーザーの現在位置を特定する現在位置特定手段(従来より公知のGPS受信機など)と、この現在位置特定手段により特定されたユーザーの現在位置(緯度データ及び経度データの座標データなどから成る)に基づいて、その現在位置に近い一つ又は複数の実況地点に対応又は関連する一つ又は複数の実況映像識別データを選択する実況映像識別データ選択手段と、この選択された実況映像識別データに基づいて、対応する実況映像をオンラインで取り込む(ネットワークを介してアクセスして閲覧する場合と送信させる場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)をリアルタイムに表示する表示手段と、からなるものである。
また、本発明では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像をそれぞれ撮像するものであり、前記各実況映像を互いに識別するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データと、から構成されており、前記現在位置特定手段は、ユーザーの現在位置を特定する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況映像識別データ選択手段は、前記現在位置特定手段により特定さたれユーザーの現在位置を示すデータ(緯度データ及び経度データから成る位置座標データなど)及び進行方向を示すデータ(東西南北など)に基づいて、ユーザーの現在位置からユーザーの進行する方向に位置し且つユーザーの現在地点に近い位置にある実況地点の実況映像であってしかもユーザーの進行方向に近い方向を写す実況映像(動画又は静止画)を特定するための実況映像地点識別データを選択するものである。
The current position confirmation system using the live video according to the present invention for solving the problems of the prior art as described above is as follows (for example, description of paragraph numbers 0017 and 0018, for example) See).
That is, the present invention is a video input means that is provided at each of actual points corresponding to a plurality of points on a map and inputs live video around the points in real time, each connected to a network. Video input means, current position estimating means for estimating the current position of the user, means for obtaining a point on the map corresponding to the estimated current position obtained by the current position estimating means, and means for obtaining the point on the map A capturing unit that captures the live video from the video input unit provided at the actual point corresponding to the point determined by the network, and a display unit that displays the captured live video. This is a current location confirmation system using live video.
In addition, the present invention distinguishes each of the live video from the video input means provided at each live point in order to constantly input real-time video of a large number of live points that can be disclosed to the public. Live video identification data recording means for recording live video identification data (consisting of coordinate data of latitude data and longitude data, etc.) and current position specifying means for specifying the current position of the user (a conventionally known GPS receiver, etc.) ) And the current position of the user specified by the current position specifying means (consisting of coordinate data of latitude data and longitude data, etc.), or corresponding to or related to one or more live spots close to the current position Live video identification data selection means for selecting one or more live video identification data, and based on the selected live video identification data Capture the corresponding live video online (including when accessing and browsing via a network and sending it) and real-time video (video or still image) captured by this video capture device Display means for displaying on the screen.
Further, in the present invention, the video input means captures videos viewed from a plurality of live spots in a plurality of directions, and the live video identification data for identifying the live videos from each other includes It is composed of position data indicating the position of each live spot provided with video input means and direction data indicating the direction in which the video input means captures, and the current position specifying means specifies the current position of the user And the live image identification data selection means includes data indicating the current position of the user specified by the current position specifying means (including latitude data and longitude data). Based on the position coordinate data) and the data indicating the direction of travel (eg, east, west, south, north) In addition, the live video point identification data for specifying the live video (moving image or still image) that is the live video of the live point that is close to the current point of the user and that shows the direction close to the user's moving direction is selected. Is.

また、本明細書で開示されている発明の中で、本願の特許請求の範囲には記載されていない発明としては、次のものが存在する。
(1)本発明による実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況地点の実況映像を互いに識別するための実況映像識別データを、地図データベースの地図上の各地点とそれぞれ関連・対応付けながら、記録する実況映像識別データベース手段と、前記地図データベースの地図上で指定された地点に基づいて、前記実況映像識別データベース手段から、対応する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像をリアルタイムに無線又は有線で取り込む(ネットワークで送信させること又はインターネット用ブラウジング・ソフトウェアでアクセスして閲覧することなどの方法により取り込む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(2)また本発明は、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、地図とその地図上の各地点を特定するための座標データとを記録する地図データベースと、前記地図データベースの中の座標データと、前記各実況映像を互いに識別するための実況映像識別データとを、互いに関連又は対応付けながら、記録する実況映像識別データベース手段と、ある実況映像を表示している場合に、その実況映像を互いに識別する実況映像識別データをキーとして、前記実況映像識別データベースから、その実況映像の実況地点に対応又は関連する一つ又は複数の地図上の地点を検索する検索手段と、この検索手段により検索された地図上の地点を含む所定領域の地図を示す地図データを抽出する地図データ抽出手段と、この地図データ抽出手段により抽出された地図データにより地図を出力する表示手段と、からなるものである。
(3)また、本発明による実況映像提供システムは、公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点に設けられた映像入力手段と、前記各実況映像を互いに識別するための実況映像識別データを、文字列・記号列・図形又は映像などから成るキーと関連付けながら、記録する実況映像識別データベース手段と、前記の文字列・記号列・図形又は映像などから成るキーを入力するキー入力手段と、このキー入力手段から入力されたキーに基づいて、前記実況映像識別データベース手段から、関連する一つ又は複数の実況映像識別データを検索する検索手段と、この検索手段により検索された実況映像識別データに基づいて、対応する実況映像を取り込む(ネットワークより送信させるとインターネット用ブラウザーにより閲覧する場合などを含む)映像取り込み手段と、この映像取り込み手段により取り込まれた実況映像(動画又は静止画)を出力する表示手段と、からなるものである。
(4)なお、本発明において、前記映像入力手段は一つの実況地点から複数の方向の映像を撮像するものであり(例えば、一つのビデオカメラを旋回してある複数の方向に来たときに撮像する場合や、複数のビデオカメラを複数の方向にそれぞれ備え付けて同時に撮像する場合など)、前記各実況映像を特定するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されていることが望ましい。
(5)また、本発明では、前記表示手段に表示された実況映像(動画又は静止画)の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えるのがよい。
(6)また、本発明において、前記映像入力手段は、その地点において発生している音声をリアルタイムに入力する手段をも備えているのがよい。
(7)また本発明では、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むのがよい。なお、この(8)において、前記の「その匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換手段」は、前記匂い入力手段と直接に接続され、この変換手段がコンピュータ通信ネットワークを介して前記匂い発生手段に接続されていてもよいし、あるいは、前記入力入力手段とコンピュータ通信ネットワークを介して接続され、この変換手段が直接に前記匂い発生手段に接続されていてもよい。
Among the inventions disclosed in this specification, there are the following as inventions not described in the claims of the present application.
(1) The live video providing system according to the present invention includes a video input means provided at each live spot for constantly inputting real live video of a large number of live spots that can be disclosed to the public, A live video identification database means for recording live video identification data for distinguishing live video at a location from each other on the map of the map database, while being associated with and associated with each point on the map of the map database, and designated on the map of the map database A search means for searching for one or more corresponding live video identification data from the live video identification database means based on the location, and a corresponding live situation based on the live video identification data searched by the search means Capture video in real-time wirelessly or by wire (transmitting over a network or browsing for the Internet Capturing) video capture unit by a method such as to view and access by software, and a display means for outputting a commentary image captured by the image capture means (moving image or still image), is made of.
(2) In addition, the present invention provides a video input means provided at each live spot for constantly inputting live video of a large number of live spots that can be disclosed to the public, and a map and various locations on the map. A map database for recording coordinate data for specifying points, coordinate data in the map database, and live video identification data for identifying each live video from each other, Corresponding to the live video identification point from the live video identification database, using the live video identification database means to record and the live video identification data that mutually identifies the live video when displaying a live video Or a search means for searching for one or more related points on the map, and a predetermined area including the points on the map searched by the search means. A map data extracting means for extracting the map data indicating a display means for outputting a map by the map data extracted by the map data extracting means, is made of.
(3) Further, the live video providing system according to the present invention is a video input means provided at each live spot in order to constantly input live video of a large number of live spots that can be disclosed to the public in real time, The live video identification database means for recording the live video identification data for identifying each live video while associating the live video identification data with a key made up of a character string / symbol string / graphic or video, etc., and the character string / symbol string / graphic Alternatively, a key input means for inputting a key composed of a video and the like, and a search for searching for one or more relevant live video identification data from the live video identification database means based on the key input from the key input means And the corresponding live video is captured based on the live video identification data retrieved by the search means and the search video. And) the image capturing means, including when browsing the browser for the Internet, and a display means for outputting a commentary image captured by the image capture means (moving image or still image), is made of.
(4) In the present invention, the video input means captures video in a plurality of directions from one live point (for example, when a video camera is turned in a plurality of directions) For example, in the case of imaging, or in the case where a plurality of video cameras are respectively provided in a plurality of directions and imaged at the same time), the live video identification data for specifying each live video is the live spot where the video input means is provided. It is desirable that it is composed of position data indicating the position of the image and direction data indicating the direction in which the video input means captures.
(5) In the present invention, the marking means for marking the part specified by the user in the live video (moving picture or still picture) displayed on the display means to distinguish it from other parts. It is good to have.
(6) In the present invention, the video input means preferably further includes means for inputting the sound generated at the point in real time.
(7) In the present invention, it is further provided in the vicinity of the video input means, and includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data. The odor input means for inputting the odor at or around the spot, the conversion means for converting the odor data from the odor input means into the fragrance preparation data for generating an odor similar to the odor, and It is preferable to include odor generating means that is provided in the vicinity of the display means and generates a desired odor by preparing a fragrance from the fragrance preparation data. In (8), the “conversion means for converting to fragrance preparation data for generating an odor similar to the odor” is directly connected to the odor input means, and the conversion means is connected to computer communication. It may be connected to the odor generating means via a network, or may be connected to the input input means via a computer communication network, and this conversion means may be directly connected to the odor generating means. .

本発明では、ユーザーの推測現在位置をGPS受信機などの現在位置推測手段(現在位置特定手段と呼ぶこともある)により求め、この「求められた推測現在位置に対応する実況地点の実況映像」をオンラインで取り出して表示するようにしている。
したがって、ユーザーは、例えば、次のような使い方が可能になる。例えば、自分が車両などに乗って移動しているとき、GPS受信機からのデータにより自分の「推測現在位置」を求めて、その「推測現在位置に対応する地図上の地点」を地図画面上で求めて見る(このためのシステムは、従来より、自動車用の目的地までのルートの地図探索・運転案内システムとして実用化されている)。また、同時に、ユーザーは、通信ネットワークを介して該当する映像入力手段にアクセスし、前記の「推測現在位置に対応する地図上の地点」に対応する実況映像を、オンラインで取り出して画面上に表示させて見る。これにより、ユーザーは、目的地へのルートを記載した地図を見ながら、地図上に表示されている推測現在位置(GPS受信機により計測されるユーザーの推測現在位置が画面の地図上に矢印などで表示されるシステムは、自動車の運転案内システムとして既に多数市販されている)と実況映像とが一致しているかどうかを確認し、一致していれば、GPS受信機のデータから得られた「推測現在位置」が計測誤差なく正しいことを確認できる。また一致していなければ、GPS受信機のデータから得られた「推測現在位置」が間違っていることが分かる。
すなわち、ユーザーがGPS受信機からの推測現在位置に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図の上の「推測現在位置に近い一つ又は複数の実況地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が正しいかどうかをユーザー自身が確認できる。すなわち、従来より存在しているGPS受信機を利用して、GPS受信機からの「推測現在位置」(緯度データと経度データの座標データ)に基づいて地図データベースから推測現在位置を含む所定領域の地図を読み出して表示し、その表示された地図上に表示された「推測現在位置(座標データ)又はそれと近い地点の実況映像」をオンラインで取り出すようにすれば、GPS受信機からの「推測現在位置」が計測誤差などが無く正しいものかどうかを、確認することができる。つまり、「表示された実況映像」が「ユーザーの現在の位置から実際に見えるもの」と一致していれば、GPS受信機からの[推測現在位置]は正しいものと判定できる(従来は、ユーザーは、地図だけでは、GPS受信機による現在位置が正しいかどうかを自分で確かめることが困難だった)。
また、本発明では、前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像を撮像するものであり、前記各実況地点を互いに識別するための実況地点識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データとその映像入力手段が撮影する方向を示す方向データとから構成されており、前記現在位置特定(推測)手段は、ユーザーの現在位置を特定(推測)する手段とユーザーの進行方向を特定する手段とを含んでおり、前記実況地点識別データ選択手段は、前記現在位置特定(推測)手段により特定(推測)さたれユーザーの推測現在位置(緯度データ及び経度データによる座標データなど)及びユーザーの進行方向(東西南北など)に基づいて、ユーザーの「推測現在位置に(最も)近い実況地点」を示し且つユーザーの進行方向に(最も)近い方向の実況地点識別データを選択するものである。よって、車両などで移動中のユーザーは、画面に表示された「地図上の自分の推測現在位置(GPS受信機からの自分の推測現在位置が矢印などで表示される)」を見ながら、同時に、前記GPS受信機からの「推測現在位置に対応する地図上の地点を示す実況映像」を見ることができ、「推測現在位置に対応する地図上の地点を示す実況映像」と「自分の位置から実際に見える風景」とを照らし合わせて、GPSにより計測された「推測現在位置」が本当に正しいかどうかを確認することができる。
In the present invention, the user's estimated current position is obtained by current position estimating means (sometimes referred to as current position specifying means) such as a GPS receiver, and this "actual video of the actual point corresponding to the obtained estimated current position" Is taken online and displayed.
Therefore, the user can use the following, for example. For example, when you are moving on a vehicle or the like, find your “estimated current position” based on data from the GPS receiver, and display the “point on the map corresponding to the estimated current position” on the map screen. (The system for this purpose has been put to practical use as a map search / driving guidance system for routes to destinations for automobiles). At the same time, the user accesses the corresponding video input means via the communication network, and retrieves the live video corresponding to the “point on the map corresponding to the estimated current position” online and displays it on the screen. Let me see. As a result, the user can see the estimated current position displayed on the map while viewing the map that describes the route to the destination (the estimated current position of the user measured by the GPS receiver is The system displayed in (1) is already available on the market as a car driving guidance system) and confirms whether or not the live video matches, and if they match, it is obtained from the GPS receiver data. It can be confirmed that “the estimated current position” is correct without any measurement error. If they do not match, it is understood that the “estimated current position” obtained from the GPS receiver data is incorrect.
That is, the user reads out and displays a map of a predetermined area including the estimated current position from the map database based on the estimated current position from the GPS receiver, and displays “one close to the estimated current position on the displayed map or If the “live video of multiple live spots” is extracted online, the user can confirm whether the “estimated current position” from the GPS receiver is correct. That is, using a conventional GPS receiver, a predetermined area including the estimated current position from the map database based on the “estimated current position” (latitude data and longitude data coordinate data) from the GPS receiver. If the map is read out and displayed, and the "live image of the estimated current position (coordinate data) or a point close to it" displayed on the displayed map is retrieved online, the "estimated current" from the GPS receiver It is possible to confirm whether the “position” is correct without any measurement error. In other words, if the “displayed live video” matches “what is actually visible from the user's current position”, the [estimated current position] from the GPS receiver can be determined to be correct (previously, the user It was difficult to confirm by myself whether the current position by the GPS receiver was correct with the map alone).
Further, in the present invention, the video input means captures images that are visible from the respective live spots in a plurality of directions, and the live spot identification data for identifying each live spot is the video. It is composed of position data indicating the position of each live point provided with the input means and direction data indicating the direction in which the video input means captures, and the current position specifying (estimating) means determines the current position of the user. Means for specifying (estimating) and means for specifying the direction of travel of the user, and the live spot identification data selecting means is specified (estimated) by the current position specifying (estimating) means and the estimated current position of the user Based on the user ’s direction of travel (such as latitude and longitude data) and the user ’s direction of travel (eg, east, west, north, and south) And it indicates the point "in the traveling direction of the user (the most) and selects the close direction Commentary point identification data. Therefore, a user who is moving on a vehicle or the like is simultaneously viewing the “your current estimated position on the map (your current estimated position from the GPS receiver is displayed with an arrow)” at the same time. From the GPS receiver, it is possible to see “the live video showing the point on the map corresponding to the estimated current position”, “the live video showing the point on the map corresponding to the estimated current position” and “your position The “estimated current position” measured by the GPS can be confirmed by comparing with the “landscape that can be actually seen”.

本発明を実施するための最良の形態は、以下の実施例1について述べるような形態である。   The best mode for carrying out the present invention is a mode as described in Example 1 below.

次に、図1〜4を参照して、本発明の実施例1を説明する。
図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6及びマウス6aと、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、インターネット等のコンピュータネットワーク用公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の実況地点にそれぞれ設置されたビデオカメラ12,12a,12b及び集音マイク13,13a,13bを制御し且つこれらのビデオカメラ12及び集音マイク13からのデータを記録し通信ネットワークを介して閲覧させるためのコンピュータ(サーバー)14,14a,14bが、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザー側からの要求により、コンピュータ14及び中継サービス用コンピュータ11を介して、ユーザー側に送信できるようになっている。なお、前記ビデオカメラ12は、各実況地点において、それぞれ4個ずつ設置され、それらの4個のビデオカメラは、それぞれ東西南北の4つの方向の映像を撮像するように、設置されていることが望ましい。
Next, Embodiment 1 of the present invention will be described with reference to FIGS.
In FIG. 1, reference numeral 1 denotes a personal computer (personal computer) used by a user, a control device 2 comprising a CPU and a communication modem, a hard disk device 3 in which computer programs and data are recorded, and computer programs and data are recorded. A CD-ROM drive 5 for driving the CD-ROM 4, a keyboard 6 and a mouse 6 a for inputting data, a display 7 for outputting an image, and a speaker 8 for outputting sound are configured. ing.
The control device 2 is connected to a relay service computer 11 through a computer network public line 10 such as the Internet. The relay service computer 11 controls the video cameras 12, 12 a, 12 b and the sound collection microphones 13, 13 a, 13 b respectively installed at a number of actual points, and also from these video cameras 12 and the sound collection microphones 13. Computers (servers) 14, 14 a, 14 b for recording data and browsing through a communication network are connected. The video data and audio data input by these many video cameras 12 and microphones 13 can be transmitted to the user side via the computer 14 and the relay service computer 11 in response to a request from the user side. Yes. Note that four video cameras 12 are installed at each actual point, and the four video cameras are installed so as to capture images in four directions of east, west, south, and north, respectively. desirable.

また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、ある中継サービス用コンピュータ11に接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたコンピュータ(サーバー)を介してビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
この場合の映像や音声の取り込みの方法は、そのビデオカメラやマイクからの情報を電子メールに添付させて送信させる方法や、そのビデオカメラ及びマイクの入力情報を提供するためのホームページがコンピュータ・ネットワーク上に開設されており、このホームページをユーザー側がインターネット用のブラウザー・ソフトウェア(閲覧ソフト)により取り込みにいく方法(いわば、コンピュータ・ネットワーク上のホームページをユーザー側のバソコンのハードディスクのように使用する方法)などの様々な方法が有り得る。
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to a certain relay service computer 11 passes through the relay service computer 11. Data input from a video camera and a microphone can be taken in from another relay service computer 12 or the like via a computer (server) connected thereto.
Video and audio capture methods in this case include a method for sending information from the video camera and microphone attached to an e-mail, and a homepage for providing input information of the video camera and microphone is a computer network. A method that allows users to import this website using browser software (browsing software) for the Internet (in other words, using a website on a computer network like a hard disk of a user's computer). There can be various methods such as.

この実施例1では、前記CD−ROM4には、地図データとこの地図上の各地点を特定するためのアドレスデータとを関連させて記録する地図データベースと、このアドレスデータと、前記各実況地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データとを、互いに関連付け・対応付けて記録する実況映像データベースと、これらの前記地図データベースを再生する再生プログラムと、前記実況映像データベースを検索する検索プログラムと、この検索された実況映像識別データからそれに対応する実況映像を取り込んで表示するためのプログラムとが、記録されている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが地図データベースを再生させて湘南海岸を含む所定領域の地図を画面表示させ、その画面上で前記の湘南海岸の地点をマウス6aでクリックしたとする。すると、制御装置2は、この入力に基づいて、前記地点データベースから、この地図上の地点に対応するアドレスデータを検索する。そして、この検索されたアドレスデータに基づいて、前記実況映像データベースから、対応する実況地点の実況映像を示す実況映像識別データを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、前記の実況映像識別データに対応する実況地点に設置されたビデオカメラ及びマイク(且つ、前記実況映像識別データが撮像方向をも特定したものであるときは、その撮像方向と対応する方向に設置されたビデオカメラ及びマイク)からの映像データ及び音声データをオンラインで取り込んで、ディスプレイ7及びスピーカ8によりリアルタイムに出力する。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感覚・感動を得ることができる。
すなわち、従来からも、例えば湘南海岸などの海岸の映像を記録し、それらをキーワードなどで検索して出力できるCD−ROMなどは存在している。そして、これらのCD−ROMに記録された映像は、プロのカメラマンが絶好の日和・時刻(例えば夕陽のきれいな時刻)の絶好の角度から美しく撮影したものである。これに対して、この実施例で提供される映像は、雨天のときも曇りのときもあるし、時刻も絶好の景色が見られる時刻ではないかもしれない。しかし、ユーザーにとっては、「今この時点・この瞬間の映像(二度とない映像)である」ということが、ひとつの「臨場感」「感動」を生むことになる。つまり、「今、湘南海岸に沈む夕陽を見たい」とユーザーが思った場合、過去の記録に過ぎない記録された「湘南海岸の夕陽」の映像ではなく、「今この瞬間の湘南海岸の夕陽」の映像を見られなければ、ユーザーにとっては大きな感動は得られない。この実施例はこのようなユーザーの希望に答えることができるものなのである。
In the first embodiment, the CD-ROM 4 includes a map database that records map data and address data for specifying each point on the map in association with each other, this address data, and each actual point ( Live video database for recording video identification data for identifying live video at each location where the video camera 12 and the microphone 13 are installed) in association with each other, and playback for playing back the map database A program, a search program for searching the live video database, and a program for capturing and displaying a live video corresponding to the searched live video identification data are recorded.
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, it is assumed that the user reproduces the map database, displays a map of a predetermined area including the Shonan coast, and clicks the location of the Shonan coast on the screen with the mouse 6a. Then, based on this input, the control device 2 searches the point database for address data corresponding to the point on the map. Based on the retrieved address data, live video identification data indicating the live video of the corresponding live location is searched from the live video database. Then, based on the retrieved live image identification data, the relay service computer 11 is accessed, and the video camera and microphone (and the live image identification) installed at the live point corresponding to the live image identification data. When the data also specifies the imaging direction, video data and audio data from a video camera and a microphone installed in a direction corresponding to the imaging direction are captured online, and real time is displayed by the display 7 and the speaker 8. Output to. Since the video and audio output at this time are real-time video and audio at the present time, the user can feel as if they were actually at the site.
In other words, there has been a CD-ROM or the like that can record a video of a beach such as the Shonan coast and search and output it with a keyword or the like. The images recorded on these CD-ROMs are beautifully photographed by a professional photographer from a perfect angle of a perfect day / time (for example, a beautiful time of the sunset). On the other hand, the video provided in this embodiment may be rainy or cloudy, and the time may not be the time when the best scenery can be seen. However, for the user, “the video at this point in time and the video at this moment (a video that will never happen again)” creates a single “sense of reality” and “impression”. In other words, if the user thinks “I want to see the sunset on the Shonan coast now,” it ’s not just the recorded “sunset on the Shonan coast” recorded in the past. If you ca n’t see the video, you wo n’t be able to get a big impression. This embodiment can answer such user's wishes.

なお、ここで、以上の図1について説明した実施例の構成を図2を参照してもう一度説明する。この図2は、実施例の構成を機能的・概念的に示したものである。図2において、符号32は、コンピュータネットワーク(コンピュータ通信網)30に接続され、各地の実況映像と音声をリアルタイムに入力するためのビデオカメラ及びマイクから成る実況映像入力部である。また、符号24は、前記地図データベース26とその再生プログラムとその検索プログラム、前記実況映像データベース25とその検索プログラム、及び前記実況映像識別データから通信ネットワークを介して該当する実況映像を取り込むためのプログラムなどが記録されたCD−ROMである。
また図2において、21は前記CD−ROM24に記録された前記地図データベース26を再生するための地図データベース再生部、22はこの地図データベース再生部21からの信号を受けて表示部27及びスピーカ28を制御して所定の画像及び音声を出力する制御部である。また23は、前記制御部22からの信号を受けて、前記地図データベースが再生された画面上でユーザーが指定(マウスでクリック)した地点のアドレスデータに基づいて、前記実況映像データベース25から、対応する実況映像の識別データを検索する検索部である。制御部22は、この検索部23からの実況映像の識別データに基づいて、映像取り込み部(例えばインターネットのホームページ閲覧用ソフトウェアであるブラウザーを記録し実行する装置)26を制御して、コンピュータネットワーク用通信回線30を介して映像入力部32にアクセスし、そこから、オンラインで、リアルタイムの実況映像及び音声を取り込む。制御部22は、このオンラインで取り込まれた実況映像と音声を、前記地図データベース26からの再生画像(地図画像)と関連させながら、前記表示部27及びスピーカ28によりリアルタイムに出力させる。
Here, the configuration of the embodiment described above with reference to FIG. 1 will be described again with reference to FIG. FIG. 2 shows the configuration of the embodiment functionally and conceptually. In FIG. 2, reference numeral 32 denotes a live video input unit that is connected to a computer network (computer communication network) 30 and includes a video camera and a microphone for inputting live video and audio in various places in real time. Reference numeral 24 denotes the map database 26, its reproduction program and its search program, the live video database 25 and its search program, and a program for taking in the corresponding live video from the live video identification data via a communication network. Is a CD-ROM on which is recorded.
In FIG. 2, 21 is a map database playback unit for playing back the map database 26 recorded on the CD-ROM 24, 22 receives a signal from the map database playback unit 21, and displays a display unit 27 and a speaker 28. It is a control part which controls and outputs a predetermined image and sound. 23 corresponds to the response from the live video database 25 based on the address data of the point designated by the user (clicked with the mouse) on the screen where the map database is reproduced in response to the signal from the control unit 22. It is a search part which searches the identification data of the live video to perform. Based on the identification data of the live video from the search unit 23, the control unit 22 controls the video capturing unit (for example, a device that records and executes a browser as Internet homepage browsing software) 26 for the computer network. The video input unit 32 is accessed via the communication line 30, and real-time live video and audio are captured from there. The control unit 22 causes the live video and audio captured online to be output in real time by the display unit 27 and the speaker 28 while associating with the reproduced image (map image) from the map database 26.

次に、前記の図1の制御装置2に制御されながら、前記ディスプレイ7により表示される画面を、図3及び図4に基づいて説明する。
前記CD−ROM4に記録された各プログラムにより、ディスプレイ7には、図3に示すように、その上半分7aに実況映像が表示され、その下半分7bに地図が表示されるようになっている。この実施例1を使用するときは、ユーザーは、まず図1の前記CD−ROM4を駆動して、前記地図データベースから前記ディスプレイ7の下半分7bに希望する地図を表示させる。CD−ROM4に記録された地図データベースの中のどの部分の地図を表示させるかは、例えば、地名などのキーワードから地図データを検索して表示させればよい(このような技術は従来より公知である)。
そして、本実施例では、この表示された地図には、例えば図4のア、イ、ウ、エ、オ、カ、キに示すように、各地点を示す点が所定の色(例えば赤色)に着色されて表示されている。
これらの図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のア、イ、ウ、及びエは、図1のビデオカメラ12及びマイク13に対応している。すなわち、この実施例1では、図1のビデオカメラ12は、それぞれ互いに異なる方向を撮像するように図4のア、イ、ウ、及びエの位置に設置された4個のビデオカメラにより構成されている。また、図1のマイク13は、それぞれ互いに異なる方向を集音するように設置された4個のマイクにより構成されている。
つまり、ビデオカメラ12について説明すると、ビデオカメラ12を構成する4個のビデオカメラの中で、図4のアの位置に設置されたビデオカメラは、図の西方向(左方向)に向けて撮像しており、“1428A”の映像識別データを有する実況映像を生成する。また、図4のイの位置に設置されたビデオカメラは、図の南方向(下方向)に向けて撮像しており、“1428B”の映像識別データを有する実況映像を生成する。また、図4のウの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1428C”の映像識別データを有する実況映像を生成する。また、図4のエの位置に設置されたビデオカメラは、図の北方向(上方向)に向けて撮像しており、“1428D”の映像識別データを有する実況映像を生成する。
また、前記の図4のア、イ、ウ、エ、オ、カ、キで示す各点の中で、図4のオ、カ、及びキは、図1のビデオカメラ12a及びマイク13aに対応している。すなわち、この実施例1では、図1のビデオカメラ12aは、それぞれ互いに異なる方向を撮像するように図4のオ、カ、及びキの位置に設置された3個のビデオカメラにより構成されている。また、図1のマイク13aは、それぞれ互いに異なる方向を集音するように設置された3個のマイクにより構成されている。つまり、ビデオカメラ12aについて説明すると、ビデオカメラ12aを構成する3個のビデオカメラの中で、図4のオの位置に設置されたビデオカメラは、図の北西方向(左上方向)に向けて撮像しており、“1429A”の映像識別データを有する実況映像を生成する。また、図4のカの位置に設置されたビデオカメラは、図の東南方向(右下方向)に向けて撮像しており、“1429B”の映像識別データを有する実況映像を生成する。また、図4のキの位置に設置されたビデオカメラは、図の東方向(右方向)に向けて撮像しており、“1429C”の映像識別データを有する実況映像を生成する。
以上のように、この図4を参照して説明する実施例では、地図上の各地点を識別するためのアドレスデータ(“1428”や“1429”など)と同一実況地点での各ビデオカメラの撮像方向を示すデータ(“A”“B”“C”“D”など)との組合せと、各地点の実況映像を識別するための実況映像識別データ(“1428A”や“1429A”など)とを、互いに対応させて記録している。
より詳細に述べると、この図4の例では、地図上の1つのアドレスデータ“1428”(図4の中央の交差点の領域を識別するアドレスデータ)については、“1428A”“1428B”“1428C”及び“1428D”の4つの撮像方向をそれぞれ示す4つの実況映像識別データが、対応させて記録されている。また、地図上の1つのアドレスデータ“1429”(図4の図示左側の交差点の領域を識別するアドレスデータ)については、“1429A”“1429B”及び“1429C”の3つの撮像方向を示す3つの実況映像識別データが、対応させて記録されている。
なお、この図4の例では、実況映像識別データ(例えば“1428A”)を、地図上のアドレスデータ(例えば“1428”)と方向データ(例えば“A”)との組合せにより構成しているが、本発明では、必ずしも、実況識別データの中に地図上のアドレスデータをそのまま使用する必要はない。例えば、地図上のアドレスデータは地図全体を均等に割り付けて構成した番地データ(又は座標データ)とし、実況映像識別データはビデオカメラが実際に取り付けてある地点の識別コード(例えば、ビデオカメラの設置順の連続番号)と方向データとの組合せにより構成する、などのようにすることもできる。
Next, a screen displayed on the display 7 while being controlled by the control device 2 shown in FIG. 1 will be described with reference to FIGS.
According to each program recorded in the CD-ROM 4, as shown in FIG. 3, a live image is displayed on the upper half 7 a and a map is displayed on the lower half 7 b of the display 7. . When using the first embodiment, the user first drives the CD-ROM 4 of FIG. 1 to display a desired map on the lower half 7b of the display 7 from the map database. Which part of the map in the map database recorded on the CD-ROM 4 is to be displayed may be obtained by searching for map data from a keyword such as a place name and displaying it (such a technique is conventionally known). is there).
In the present embodiment, in the displayed map, points indicating each point have a predetermined color (for example, red) as shown in, for example, a, i, c, e, o, mosquito, and ki in FIG. It is colored and displayed.
Among the points indicated by a, i, u, d, o, mosquito, and ki in FIG. 4, a, i, c, and d in FIG. 4 correspond to the video camera 12 and the microphone 13 in FIG. is doing. That is, in the first embodiment, the video camera 12 in FIG. 1 is configured by four video cameras installed at positions a, b, c, and d in FIG. 4 so as to capture images in different directions. ing. Moreover, the microphone 13 of FIG. 1 is comprised by the four microphones installed so that each may collect a sound from a mutually different direction.
In other words, the video camera 12 will be described. Of the four video cameras constituting the video camera 12, the video camera installed at position a in FIG. 4 takes an image in the west direction (left direction) in the figure. The live video having the video identification data “1428A” is generated. Also, the video camera installed at the position of A in FIG. 4 captures images in the south direction (downward) in the figure, and generates a live video having video identification data “1428B”. Further, the video camera installed at the position of c in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1428C”. Further, the video camera installed at the position D in FIG. 4 captures an image in the north direction (upward direction) in the figure, and generates a live video having video identification data “1428D”.
Among the points indicated by a, i, c, e, o, mosquito, and ki in FIG. 4, o, mosquito, and ki in FIG. 4 correspond to the video camera 12a and the microphone 13a in FIG. is doing. In other words, in the first embodiment, the video camera 12a in FIG. 1 is configured by three video cameras installed at the positions of “e”, “f”, and “ki” in FIG. 4 so as to capture different directions. . Moreover, the microphone 13a of FIG. 1 is comprised by the three microphones installed so that each may collect sound from a mutually different direction. In other words, the video camera 12a will be described. Of the three video cameras constituting the video camera 12a, the video camera installed at the position o in FIG. 4 takes an image in the northwest direction (upper left direction) in the figure. The live video having the video identification data “1429A” is generated. Further, the video camera installed at the position of F in FIG. 4 captures an image in the southeast direction (lower right direction) in the figure, and generates a live video having video identification data of “1429B”. Further, the video camera installed at the position of K in FIG. 4 captures an image in the east direction (right direction) in the figure, and generates a live video having video identification data of “1429C”.
As described above, in the embodiment described with reference to FIG. 4, the address data (“1428”, “1429”, etc.) for identifying each point on the map and each video camera at the same live point. Combination with data indicating the imaging direction (“A”, “B”, “C”, “D”, etc.), and live video identification data (“1428A”, “1429A”, etc.) for identifying live video at each point Are recorded in correspondence with each other.
More specifically, in the example of FIG. 4, one address data “1428” on the map (address data for identifying the intersection area at the center of FIG. 4) is “1428A”, “1428B”, “1428C”. And four live video identification data respectively indicating the four imaging directions of “1428D” are recorded correspondingly. Further, for one address data “1429” on the map (address data for identifying the intersection area on the left side in FIG. 4), three addressing directions “1429A”, “1429B” and “1429C” are shown. Live video identification data is recorded correspondingly.
In the example of FIG. 4, the live video identification data (eg, “1428A”) is configured by a combination of address data (eg, “1428”) on the map and direction data (eg, “A”). In the present invention, it is not always necessary to use the address data on the map as it is in the actual situation identification data. For example, the address data on the map is address data (or coordinate data) configured by allocating the entire map evenly, and the live video identification data is the identification code of the point where the video camera is actually attached (for example, installation of the video camera) (Sequential number in the order) and direction data may be combined.

この図4の例では、前記各ビデオカメラ12及びマイク13がそれぞれ映像及び音声を入力して得られる実況映像(ここでの「実況映像」という用語は、原則として、ビデオカメラで入力した映像データとマイクで入力した音声データとの両者を含む意味で使用している)の識別データには、その地点を示すデータとそのビデオカメラ12が撮影している方向(これはマイク13が集音しようとする方向と一致している)とから、構成されている。つまり、実況映像は、各地点とその撮像方向とで互いに識別されており、「実況映像識別データ」は、各地点を示すデータと撮影又は集音の方向を示すデータとから、構成されている。だから、同じ地点でも、撮影する方向(東西南北などの方向)が違えば別の識別データを有する別の実況映像となる。
このことを図4で説明すると、図4の“ア”で示すアドレスデータ(1428A)を有する地点は、(1428A)という映像識別データを有する実況映像と対応しており、この(1428A)という識別データを示す実況映像は、図4の“ア”の地点からAの方向(図面に向かって左の方向)を撮影した映像である。また、図4の“イ”で示すアドレスデータ(1428B)を有する地図上の地点は、(1428B)という識別データを有する実況映像と対応しており、この(1428B)という識別データを示す実況映像は、図3の“イ”の地点からBの方向(図面に向かって下の方向)を撮影した映像である。また、図4の“ウ”で示すアドレスデータ(1428C)を有する地点は、(1428C)という識別データを有する実況映像と対応しており、この(1428C)という識別データを示す実況映像は、図4の“ウ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。また、(1428D)というアドレスデータを有する図4の“エ”で示す地点は、(1428D)という識別データを有する実況映像と1対1に対応しており、この(1428D)という識別データを示す実況映像は、図4の“エ”の地点からDの方向(図面に向かって上の方向)を撮影した映像である。
さらに、図4において、アドレスデータ(1429A)を有する“オ”で示す地点は、(1429A)という識別データを有する実況映像と対応しており、この(1429A)という識別データを示す実況映像は、図4の“オ”の地点からAの方向(図面に向かって左上の方向)を撮影した映像である。また、図4の(1429B)というアドレスデータを有する“カ”で示す地点は、(1429B)という識別データを有する実況映像と対応しており、この(1429B)という識別データを示す実況映像は、図4の“カ”の地点からBの方向(図面に向かって右下の方向)を撮影した映像である。また、図4の(1429C)というアドレスデータを有する“キ”で示す地点は、(1429C)という識別データを有する実況映像と対応しており、この(1429C)という識別データを示す実況映像は、図4の“キ”の地点からCの方向(図面に向かって右の方向)を撮影した映像である。
In the example of FIG. 4, each video camera 12 and microphone 13 is a live video obtained by inputting video and audio, respectively (in this case, the term “live video” is basically video data input by a video camera). And the voice data input with the microphone are used for identification data), the data indicating the point and the direction in which the video camera 12 is shooting (this is the microphone 13 trying to collect the sound) In the same direction). In other words, the live video is mutually identified by each point and its imaging direction, and the “live video identification data” is composed of data indicating each point and data indicating the direction of shooting or sound collection. . Therefore, even at the same point, if the shooting direction (direction such as east, west, south, and north) is different, another live image having different identification data is obtained.
This will be explained with reference to FIG. 4. A point having the address data (1428A) indicated by “A” in FIG. 4 corresponds to a live video having video identification data (1428A), and this identification (1428A) is identified. The live video showing data is a video taken in the direction A (the left direction in the drawing) from the point “a” in FIG. 4. Further, the point on the map having the address data (1428B) indicated by “I” in FIG. 4 corresponds to the live video having the identification data (1428B), and the live video showing the identification data (1428B). These are images taken in the direction B (downward in the drawing) from the point “a” in FIG. 3. Further, the point having the address data (1428C) indicated by “c” in FIG. 4 corresponds to the live video having the identification data (1428C). The live video showing the identification data (1428C) is shown in FIG. 4 is an image obtained by photographing the direction C (right direction as viewed in the drawing) from the point “4” in FIG. Further, the point indicated by “d” in FIG. 4 having the address data of (1428D) has a one-to-one correspondence with the live video having the identification data of (1428D), and indicates the identification data of (1428D). The live video is a video taken in the direction D (upward in the drawing) from the point “d” in FIG.
Further, in FIG. 4, a point indicated by “O” having address data (1429A) corresponds to a live video having identification data (1429A), and the live video showing the identification data (1429A) is It is the image | video which image | photographed the direction of A (upper left direction toward drawing) from the "o" point of FIG. Further, the point indicated by “K” having the address data (1429B) in FIG. 4 corresponds to the live video having the identification data (1429B), and the live video showing the identification data (1429B) is It is the image | video which image | photographed the direction B (the direction of the lower right toward drawing) from the "f" point of FIG. Further, the point indicated by “K” having the address data (1429C) in FIG. 4 corresponds to the live video having the identification data (1429C), and the live video showing the identification data (1429C) is It is the image | video which image | photographed the direction of C (right direction toward drawing) from the "ki" point of FIG.

以上から分かるように、この図4の例では、1428は、図4の地図の中央に位置する交差点の領域(この図4の例では、この交差点の領域を「実況地点」という言葉で呼んでいる)を示す地図上のアドレスデータであり、A,B,C,Dはその交差点領域(実況地点)からの撮影(及び集音)の方向を示している。
また同様に、図4の例では、1429は、図4の地図の左端の交差点の領域(実況地点)を示す地図上のアドレスデータであり、A,B,Cはその交差点(実況地点)内の各場所からの撮影(及び集音)の方向を示している。
また、この図4の例では、実況映像の識別データは、前記地図上の各実況地点の位置を示すアドレスデータ(“1428”,“1429”など)と前記方向を示すデータ(A,B,C,Dなど)との組合せにより、構成されている。
As can be seen from the above, in this example of FIG. 4, 1428 is an intersection area located in the center of the map of FIG. 4 (in this example of FIG. 4, this intersection area is referred to as “actual point”). A, B, C, D indicate the direction of shooting (and sound collection) from the intersection area (actual point).
Similarly, in the example of FIG. 4, 1429 is address data on the map indicating the area (actual point) of the intersection at the left end of the map of FIG. 4, and A, B, and C are within the intersection (actual point). The direction of shooting (and sound collection) from each location is shown.
In the example of FIG. 4, the live video identification data includes address data (“1428”, “1429”, etc.) indicating the location of each live location on the map and data (A, B, C, D, etc.).

したがって、ユーザーは、この図4の地図を見ながら、自分がこれから行きたいと思う場所が例えば図4の1428で示す交差点の領域だとして、「今、この交差点の状況はどうなっているか(混雑しているのかどうか、どういう人達がどういう服装で通行しているのか、など)知りたい、そのために実況映像を見たい」と思えば、図4で示す地図上のア〜エの地点のいずれかをマウスなどのポインティングデバイスでクリックすればよい。すると、前記制御装置2により、その地図上のアドレスデータに対応する実況映像識別データが検索され(前記実況映像データベースから)、この検索された実況映像識別データに基づいて、該当する実況映像がコンピュータ・ネットワークを介して取り込まれて、ディスプレイ7の上半分7aに表示される。   Therefore, the user sees the map of FIG. 4 and determines that the place he / she wants to go to is the intersection area indicated by 1428 in FIG. 4, for example, “What is the situation of this intersection now? If you want to know, what kind of people, what kind of clothes, and what kind of clothes you are going through, etc.) Can be clicked with a pointing device such as a mouse. Then, the control device 2 searches for live video identification data corresponding to the address data on the map (from the live video database), and based on the searched live video identification data, the corresponding live video is converted into a computer. -Captured via the network and displayed on the upper half 7a of the display 7.

またユーザーは、これから自分が行きたいと思う場所と今自分が居る場所との間の交通経路を地図上で求めて(これは従来から公知の技術で既に実現されている)、その経路上にある地点の実況映像を順番に表示していく(一つの実況映像の表示時間を例えば5秒として、5秒毎に次の実況映像を順番に表示していく)こともできる。
またユーザーは、自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を地図上で求め(これは従来より公知の技術で既に実現されている)、その地図上で求めた自分の現在位置に対応する地点から、前記実況映像の識別データを求めて、その識別データに基づいてネットワーク上のサーバー(例えば図1の中継サービス用コンピュータ11)を通して対応する実況映像を取り込んで表示する、こともできる。これにより、ユーザーは、地図上の現在位置(GPS受信機やセンサからの情報に基づいて推測した現在位置)と実際の現在位置とが本当に一致しているのかどうかを目視により確認することができる。つまり、上記のようにして求められた実況映像識別データに基づいてディスプレイ7に表示された実況映像と自分が自動車の内部から外部を見て得られる実際の景色とが一致していれば、前記のGPSにより推測した現在位置は計測誤差がなく正しいということになるが、一致していなければ前記の推測した現在位置は正しくないということになる。
In addition, the user obtains a traffic route between the place where he / she wants to go and the place where he / she is present on the map (this has already been realized by a conventionally known technique), and on that route. It is also possible to display live video at a certain point in order (display time of one live video is 5 seconds, for example, and display the next live video in order every 5 seconds).
In addition, when the user is driving a car, the user obtains the current position on the map from the positioning information received by the GPS receiver and the positioning information obtained by various sensors (this is already known in the prior art). The real-time video identification data is obtained from the point corresponding to the current position obtained on the map, and a server on the network (for example, for the relay service in FIG. 1) is obtained based on the identification data. It is also possible to capture and display the corresponding live video through the computer 11). As a result, the user can visually confirm whether or not the current position on the map (current position estimated based on information from the GPS receiver or sensor) and the actual current position are the same. . In other words, if the live image displayed on the display 7 based on the live image identification data obtained as described above matches the actual scenery obtained by looking at the outside from the inside of the car, The current position estimated by the GPS is correct with no measurement error, but if it does not match, the estimated current position is incorrect.

なお、前記制御装置2と中継サービス用コンピュータ11の接続は無線でもよいこと、前記中継サービス用コンピュータと各ビデオカメラ12及びマイク13との接続も無線でもよいこと、及び、前記「地図データベース」、「実況映像データベース」、これらの検索プログラム、及び地図データベース再生プログラムは、CD−ROM4から読み取るのではなく、前記中継サービス用コンピュータ11などのネットワーク上のサーバー(コンピュータ)から取り込むようにしてもよい。特に、上記のように、図1のパソコン1を移動中の自動車内で使用する場合(自分が自動車を運転しているとき、GPS受信機で受信した測位情報や各種のセンサにより得た測位情報から現在の位置を画面表示された地図上で求め、この「自分の現在位置に対応する実況地点の実況映像で且つ自分の進行方向に対応する撮像方向の実況映像」を、パソコン1のディスプレイ7に表示させる場合)は、前記パソコン1の制御装置2と前記中継サービス用コンピュータとの間は無線で送受信する必要がある。   The connection between the control device 2 and the relay service computer 11 may be wireless, the connection between the relay service computer and each video camera 12 and microphone 13 may be wireless, and the “map database”, The “live video database”, these search programs, and the map database playback program may be read from a server (computer) on the network such as the relay service computer 11 instead of being read from the CD-ROM 4. In particular, as described above, when the personal computer 1 of FIG. 1 is used in a moving car (positioning information received by a GPS receiver and positioning information obtained by various sensors when the user is driving the car). The current position is obtained on the map displayed on the screen, and this “real-time video of the live location corresponding to the current location and the imaging direction corresponding to the traveling direction” is displayed on the display 7 of the personal computer 1. In the case of display on the computer, it is necessary to transmit and receive wirelessly between the control device 2 of the personal computer 1 and the relay service computer.

次に、本発明の実施例2を図1により説明する。図1において、1はユーザーが使用するパーソナルコンピュータ(パソコン)で、CPU及び通信モデム等より成る制御装置2と、コンピュータプログラム及びデータが記録されたハードディスク装置3と、コンピュータプログラム及びデータが記録されたCD−ROM4を駆動するためのCD−ROMドライブ5と、データ入力するためのキーボード6と、画像を出力するためのディスプレイ7と、音声を出力するためのスピーカ8とより、構成されている。
前記制御装置2は、公衆回線10を介して、中継サービス用コンピュータ11に接続されている。この中継サービス用コンピュータ11には、多数の地点にそれぞれ設置されたビデオカメラ12及び集音マイク13が、コンピュータ(サーバー)14を介して、接続されている。これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、前記コンピュータ(サーバー)14及び中継サービス用コンピュータ11を介して、ユーザーに送信できるようになっている。
また、図1の多数のビデオカメラ12及び集音マイク13は、識別データにより互いに識別できるようになっている。したがって、また、各ビデオカメラ12及び集音マイク13からの実況映像及び音声は、互いに識別できるようになっている。また、これらの多数のビデオカメラ12及びマイク13等により入力された映像データ及び音声データは、ユーザーからの要求により、中継サービス用コンピュータ11を介して、ユーザーがオンラインで閲覧できるようになっている(例えば、インターネット・ホームページ閲覧用ソフトウェアのブラウザーを使用して、閲覧できるようになっている)。
また、前記中継用サービスコンピュータ11は、他の多数の中継用サービスコンピュータ12などとも接続されており、例えば、中継サービス用コンピュータに接続されたユーザーは、この中継サービス用コンピュータ11を介して他の中継サービス用コンピュータ12などから、それに接続されたビデオカメラ及びマイクから入力されたデータを取り込めるようになっている。
Next, a second embodiment of the present invention will be described with reference to FIG. In FIG. 1, reference numeral 1 denotes a personal computer (personal computer) used by a user, a control device 2 comprising a CPU and a communication modem, a hard disk device 3 in which computer programs and data are recorded, and computer programs and data are recorded. A CD-ROM drive 5 for driving the CD-ROM 4, a keyboard 6 for inputting data, a display 7 for outputting an image, and a speaker 8 for outputting sound are constituted.
The control device 2 is connected to a relay service computer 11 via a public line 10. To this relay service computer 11, video cameras 12 and sound collecting microphones 13 installed at a number of points are connected via a computer (server) 14. The video data and audio data input by the large number of video cameras 12 and microphones 13 can be transmitted to the user via the computer (server) 14 and the relay service computer 11 in response to a request from the user. It has become.
Further, the multiple video cameras 12 and the sound collecting microphones 13 shown in FIG. 1 can be distinguished from each other by the identification data. Therefore, the live video and audio from each video camera 12 and the sound collecting microphone 13 can be distinguished from each other. In addition, the video data and audio data input by the large number of video cameras 12 and microphones 13 can be viewed online by the user via the relay service computer 11 in response to a request from the user. (For example, it can be browsed using a browser of internet homepage browsing software).
The relay service computer 11 is also connected to a number of other relay service computers 12. For example, a user connected to the relay service computer 11 can connect to other relay service computers 11 via the relay service computer 11. Data input from a video camera and a microphone connected to the relay service computer 12 or the like can be taken in.

この実施例2では、前記CD−ROM4には、前記各地点(前記ビデオカメラ12及びマイク13が設置された各場所)の実況映像を識別するための映像識別データと多数のキーワードとを互いに関連付けた実況映像データベースと、これらのキーワードから前記映像識別データを検索するプログラムとが、記録されている。この実況映像データベースに記録されているキーワードには、地名、場所のジャンル(海岸、町角、港町、山、交差点、建物、レストラン、劇場、映画館、スポーツ施設、野球場、温泉、寺院など)、行動のジャンル(スポーツ、演劇、映画、食事、散歩など)、などの様々なものが含まれている。
今、例えば大阪に住んでいるユーザーが、「自分の故郷の神奈川県の夏の湘南海岸の海岸線に沈む夕陽の景色を見たい」と考えたとする。その場合、例えば、ユーザーが前記キーボード6により「神奈川県、夏、湘南海岸、海岸線、夕陽」などのキーワードを入力すると、制御装置2は、これらの入力されたキーワードに基づいて、CD−ROM4に記録された実況映像識別データの中から対応するものを検索する。そして、この検索された実況映像識別データに基づいて、中継サービス用コンピュータ11にアクセスして、その識別データに対応する地点に設置されたビデオカメラ及びマイクからの映像データ及び音声データをリアルタイムに取り込んで、ディスプレイ7及びスピーカ8から出力することができる。このとき出力される映像及び音声は、現時点のリアルタイムの映像及び音声なので、ユーザーはあたかもその現場に実際にいるような感動を得ることができる。
In the second embodiment, the CD-ROM 4 associates video identification data for identifying live video at each location (each location where the video camera 12 and the microphone 13 are installed) with a number of keywords. A live video database and a program for retrieving the video identification data from these keywords are recorded. The keywords recorded in this live video database include place names and genres of places (coasts, street corners, port towns, mountains, intersections, buildings, restaurants, theatres, cinemas, sports facilities, baseball fields, hot springs, temples, etc.) , Genres of behavior (sports, drama, movies, meals, walks, etc.), and so on.
Now, for example, a user who lives in Osaka thinks that he wants to see the setting sun on the coastline of the summer Shonan coast of Kanagawa Prefecture, his hometown. In this case, for example, when the user inputs a keyword such as “Kanagawa Prefecture, summer, Shonan coast, coastline, sunset” using the keyboard 6, the control device 2 stores the keyword in the CD-ROM 4 based on these input keywords. A corresponding one is searched from the recorded live video identification data. Then, based on the retrieved live video identification data, the relay service computer 11 is accessed, and video data and audio data from a video camera and a microphone installed at a point corresponding to the identification data are captured in real time. Thus, it can be output from the display 7 and the speaker 8. Since the video and audio output at this time are real-time video and audio at the present time, the user can feel as if they are actually at the site.

また、同様に、この実施例2では、ユーザーが例えば「寺院、京都」というキーワードを入力すれば、前記制御装置2がそれに該当する複数の映像識別データを検索し、それらを順次ディスプレイ7に表示する。また、例えば長期入院しているユーザーが、実際には行けないが「九州各地の温泉巡りをしてみたい」と思えば、「九州各地、温泉巡り」などのキーワードを入力すれば、前記制御装置2が、それに該当する複数の映像識別データを検索し、それらの識別データに対応する実際映像を受信して、順次ディスプレイ7に表示する。これは、ユーザーにとっては、実際には行っていないのに実際に行っているのと同じ感動を得ることができる。このように、この実施例2は、ユーザーにとってあたかも旅行に行っていないの行っているのと同様の感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるシステムであると言える。   Similarly, in the second embodiment, when the user inputs the keyword “Temple, Kyoto”, for example, the control device 2 retrieves a plurality of video identification data corresponding to the keyword and sequentially displays them on the display 7. To do. Also, for example, if a user who has been hospitalized for a long time cannot actually go but wants to go around hot springs around Kyushu, enter a keyword such as "around hot springs around Kyushu". Then, a plurality of video identification data corresponding thereto are searched, and actual videos corresponding to the identification data are received and sequentially displayed on the display 7. This gives the user the same excitement as they do when they are not actually doing it. Thus, it can be said that the second embodiment is a system that can realize “virtual travel (virtual travel)” that can give the user the same impression as if the user is not traveling.

また同様に、ユーザーが「横浜の港町を食べ歩きしたい」と思えば、「横浜、港町、食べ歩き」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する複数の映像識別データを検索し、これらに対応する複数の前記各地点からの実況映像のデータを取り込んでくれる(この場合、公衆への映像提供を承諾したレストランの内部に前記ビデオカメラとマイクを設置しておけば、その内部の状況、例えば客の今の混み具合や店内の雰囲気なども知ることができる)。また、同様に、ユーザーが「日本全国の劇場巡り(野球場巡り)をしてみたい」と思えば、「日本、劇場巡り(野球場巡り)」というキーワードを入力すれば、前記制御装置2がこれらのキーワードに基づいて対応する映像識別データを検索し、それらに対応する実況映像をリアルタイムに出力してくれる。この場合、各劇場又は各野球場に、所定時間のみ劇の内容(又は試合内容)の送信を承諾してもらっておけば、ユーザーは所定時間のみではあるが、その劇(又は試合)の内容を言わばインデックス代わりに見ることができる。   Similarly, if the user wants to “walk around the port town of Yokohama” and enters the keyword “Yokohama, port town, walk around”, the control device 2 can respond to a plurality of images based on these keywords. It retrieves identification data and captures live video data from each of the corresponding points (in this case, the video camera and microphone are installed inside a restaurant that has agreed to provide video to the public) If you keep it, you can know the inside situation, such as the current crowd of customers and the atmosphere in the store.) Similarly, if the user wants to go around Japan to visit theaters (baseball stadium tours), enter the keyword "Japan, tour around theaters (baseball stadium tours)", and the control device 2 will make these It searches the corresponding video identification data based on the keyword and outputs live video corresponding to them in real time. In this case, if each theater or each baseball field approves the transmission of the contents of the play (or the contents of the game) only for a predetermined time, the user will not be able to change It can be seen instead of an index.

次に、本発明の実施例3を説明する。この実施例3では、前記の実施例1の構成に加えて、次のようなものが備えられている。
まず、前記ビデオカメラ12やマイク13の近傍に備えられた匂い入力装置が備えられている。この匂い入力装置には、匂いセンサと、この匂いセンサからの信号を匂いのデジタルデータにコード化するコード化部が備えられている。前記匂いセンサは、既存の複数の匂いセンサから構成され、各センサからの匂い量検出値はすべて前記コード化部(エンコーダ)に供給される。コード化部(エンコーダ)では、この供給された匂い量検出値を符号化する。この符号化された匂いデータ(デジタルデータ)は、記録装置に記録されると共に、遠隔のユーザーが、コンピュータ通信ネットワーク網を介してリアルタイムに閲覧し取り込めるようになっている。なお、前記の匂いセンサは、感知できる匂いの種類毎に複数用意しておき、できるだけ現場の元の匂いを忠実に再現できるだけの情報を得られるようにすることが望ましい。
次に、ユーザー側には、前記の閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置と、前記ディスプレイ7(図1)の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置と、が備えられている。
まず、前記の「前記閲覧し取り込んだ匂いデータ(デジタルデータ)を、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」を説明する。前記変換装置は、各匂いセンサの検出値のパターンを各芳香剤の出力値のパターンに変換する。より具体的には、様々な種類の匂いのそれぞれについて、その匂いを匂いセンサに検出させると検出値がどのような値をとるかを予め調査・記録しておく。そして、この匂いと匂いセンサの検出値パターンとの関係を記録したデータと、各匂いと芳香剤(の成分)との関係を記録したデータとから、各匂いセンサの検出値のパターンと複数種類の芳香剤の出力値のパターンとを対応付けて記録しておくようにする。前記変換装置は、この対応付けられた情報に基づいて、匂いセンサの検出値のパターンを芳香剤(の成分)の出力値のパターン(これが「芳香剤調合データ」となる)に変換するものである。このことをより詳細に述べると、次のとおりである。前記変換装置には、各匂いを匂いセンサで検出したときの匂いセンサの検出値と、その匂いを後述の匂い発生装置で発生させるときの各芳香剤の出力値との対応関係が記録されたセンサ芳香剤量変換テーブルが、予め記録されている。そして、変換装置は、前記匂いセンサの検出値データに基づいて、このセンサ芳香剤量変換テーブルを参照して、各匂いセンサ毎の検出値を各芳香剤毎の出力値に変換する。
Next, a third embodiment of the present invention will be described. In the third embodiment, in addition to the configuration of the first embodiment, the following is provided.
First, an odor input device provided in the vicinity of the video camera 12 and the microphone 13 is provided. The odor input device includes an odor sensor and an encoding unit that encodes a signal from the odor sensor into odor digital data. The odor sensor is composed of a plurality of existing odor sensors, and all odor amount detection values from each sensor are supplied to the encoding unit (encoder). The encoding unit (encoder) encodes the supplied odor amount detection value. The encoded odor data (digital data) is recorded in a recording device and can be viewed and captured in real time by a remote user via a computer communication network. It should be noted that it is desirable to prepare a plurality of odor sensors for each type of odor that can be sensed, and to obtain information that can reproduce the original odor as closely as possible.
Next, the user side converts the browsed and captured odor data (digital data) into a fragrance preparation data for generating an odor similar to the odor on site, and the display 7 (FIG. 1), and an odor generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data.
First, the “conversion device for converting the browsed and captured odor data (digital data) into fragrance preparation data for generating an odor similar to the odor on site” will be described. The conversion device converts a detection value pattern of each odor sensor into an output value pattern of each fragrance. More specifically, for each of various types of odors, what value the detection value takes when the odor sensor detects the odor is previously investigated and recorded. Then, from the data recording the relationship between the odor and the detection value pattern of the odor sensor and the data recording the relationship between each odor and the fragrance (component), the detection value pattern of each odor sensor and a plurality of types The pattern of the output value of the fragrance is recorded in association with each other. The converter converts the detection value pattern of the odor sensor into an output value pattern of the fragrance (component) (this becomes “fragrance preparation data”) based on the associated information. is there. This will be described in more detail as follows. In the conversion device, the correspondence between the detected value of the odor sensor when each odor is detected by the odor sensor and the output value of each fragrance when the odor is generated by the odor generating device described later is recorded. A sensor fragrance amount conversion table is recorded in advance. Then, the conversion device refers to the sensor fragrance amount conversion table based on the detection value data of the odor sensor, and converts the detection value for each odor sensor into an output value for each fragrance.

次に、前記の「前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生装置」を説明する。匂い発生装置は、予め複数種類の芳香剤を用意しておき、前記の「芳香剤調合データ」(前記の芳香剤出力パターンデータ。各芳香剤からの匂い成分をどれだけ発生させるかを示すデータ)に基づいて、必要な種類の匂いの成分(芳香剤からの成分)を必要な分量だけ発生させる。匂い発生装置の形態としては、ある空間中においてその空間全体に匂いを行き渡らせる据置型のものと、ユーザーの鼻の付近又は鼻の中に装着して装着した人にのみ匂いを感得させる個人携帯型のものと、が考えられる。
例えば、前記の据置型のものとしては、次のようなものが考えられる。すなわち、箱の底に芳香剤の入った容器を並べて、芳香剤と空気とが接する面積を任意に調整できる蓋を各容器に付けておき、箱の後ろ側には、必要に応じて送風機を設ける。そして、前記の「芳香剤出力パターン」のデータに応じて、各芳香剤の成分を所定量ずつ放出できるように、対応する各芳香剤の容器の蓋の開閉具合を調節する。また、前記携帯型のものについては、基本的構成は据置型のものと同様でよいが、これを小型化し、これをヘルメット型、ヘッドセット型、メガネ型、マスク型などの頭部支持具によりユーザーの鼻の付近に装着できるようにする。
なお、この実施例3では、前記の「前記閲覧し取り込んだ符号化された匂いデータを、現場の匂いに近似した匂いを発生させるための芳香剤調合データに変換する変換装置」をユーザー側のパソコン1側に備えるようにしているが、本発明ではこれに限られるものではなく、例えば、現場のビデオカメラ12やマイク13が設置された地点に備えるようにしてもよいし、コンピュータ・ネットワーク上の中継サービス用コンピュータ(サーバー)11に備えるようにしてもよい。また、以上の実施例3で説明した「匂いのデータ化、記録、通信、及び再生」の技術は、例えば特開平7−55742号公報などに開示された公知の技術である。
Next, the “scent generating device for preparing a desired odor by preparing a fragrance from the fragrance preparation data” will be described. The odor generating device prepares a plurality of types of fragrances in advance, and the “fragrance preparation data” (the fragrance output pattern data. Data indicating how much odor components from each fragrance are generated. ) To generate a necessary amount of odor components (components from the fragrance) in a necessary amount. As a form of odor generating device, a stationary type that spreads the scent throughout the space in a certain space, and an individual who can feel the scent only by wearing near the user's nose or in the nose A portable type can be considered.
For example, the following can be considered as the stationary type. That is, arrange containers with fragrances at the bottom of the box, and attach a lid to each container to adjust the area where the fragrance and air are in contact with each other. Provide. Then, according to the data of the “fragrance output pattern”, the opening / closing state of the lid of each corresponding fragrance container is adjusted so that a predetermined amount of each fragrance component can be released. In addition, for the portable type, the basic configuration may be the same as that of the stationary type, but this is reduced in size by a head support such as a helmet type, a headset type, a glasses type, or a mask type. It can be worn near the user's nose.
In the third embodiment, the above-mentioned “conversion device that converts the encoded odor data that has been browsed and captured into fragrance preparation data for generating an odor similar to the odor on site” is provided on the user side. However, the present invention is not limited to this. For example, the personal computer 1 may be provided at a site where the video camera 12 and the microphone 13 are installed on the computer, or on a computer network. The relay service computer (server) 11 may be provided. Further, the technology of “smell data conversion, recording, communication, and reproduction” described in the third embodiment is a known technology disclosed in, for example, Japanese Patent Laid-Open No. 7-55742.

図5は本発明の実施例4を示すブロック図である。図5において、21は液晶ディスプレイ(LCD)である。また図5において、22は従来より市販されているGPS(Grobal Positioning System)受信機で、人工衛星からの電波の遅延時間を計測し、軌道からの距離からユーザーの現在位置を求めるためのものである。このGPS受信機22は、人工衛星から送信されるGPS電波を受信するGPS受信アンテナと、このGPS電波から現在位置を緯度データ及び経度データとして認識する位置認識部(CPUにより構成される)を含んでいる。前記GPSアンテナは、GPS衛星からの例えば1.5GHzの電波を受信し、その信号を前記位置認識部に送る。前記位置認識部では、稼働中のGPS衛星のうち受信可能な4個以上の衛星の電波を受信し、既知である衛星の位置と受信電波とから算出した各衛星−受信点間の距離とを基にして、受信点の現在位置を取得し、緯度データ及び経度データを算出する。なお、以上のGPS受信機2の詳細な構成及び使用方法は従来より公知である(例えば、特開平5−45171号公報、特開平7−306054号公報、特開平8−94735号公報などを参照)ので、詳細な説明は省略する。
また、図5において、26は進行方向入力部で、ユーザーが徒歩、車両、鉄道などにより移動中のときのその進行方向(東西南北など)を地磁気などを利用して計測しその進行方向を求める進行方向入力部である。この実施例4では、前記GPS受信機22と進行方向入力部26とにより、本発明によるユーザーの「現在位置特定手段」を構成している。
また図5において、23はこのGPS受信機22からの現在位置情報としての座標データ(緯度データ及び経度データ)と前記進行方向入力部26からの進行方向データを受け取り、該当する衛星画像を選択し、それを前記LCD21に表示するための制御部で、パーソナル・コンピュータなどにより構成されている。
FIG. 5 is a block diagram showing Embodiment 4 of the present invention. In FIG. 5, 21 is a liquid crystal display (LCD). In FIG. 5, 22 is a GPS (Global Positioning System) receiver that has been commercially available so far, which measures the delay time of the radio wave from the artificial satellite and obtains the current position of the user from the distance from the orbit. is there. The GPS receiver 22 includes a GPS receiving antenna that receives GPS radio waves transmitted from artificial satellites, and a position recognition unit (configured by a CPU) that recognizes the current position as latitude data and longitude data from the GPS radio waves. It is out. The GPS antenna receives, for example, a 1.5 GHz radio wave from a GPS satellite and sends the signal to the position recognition unit. The position recognition unit receives radio waves of four or more receivable satellites among GPS satellites in operation, and calculates the position between each satellite and the reception point calculated from the known satellite positions and the received radio waves. Based on this, the current position of the reception point is acquired, and latitude data and longitude data are calculated. The detailed configuration and usage of the GPS receiver 2 described above are conventionally known (see, for example, JP-A-5-45171, JP-A-7-306054, and JP-A-8-94735). Therefore, detailed description is omitted.
In FIG. 5, reference numeral 26 denotes a traveling direction input unit, which measures the traveling direction (such as east, west, south, and north) when the user is moving by walking, vehicle, railroad, or the like using geomagnetism or the like to obtain the traveling direction. It is a traveling direction input unit. In the fourth embodiment, the GPS receiver 22 and the traveling direction input unit 26 constitute a “current position specifying unit” of the user according to the present invention.
In FIG. 5, 23 receives coordinate data (latitude data and longitude data) as current position information from the GPS receiver 22 and the traveling direction data from the traveling direction input unit 26, and selects the corresponding satellite image. A control unit for displaying it on the LCD 21 is constituted by a personal computer or the like.

また、図5において、24は、前記制御部23とインターネットなどのコンピュータ通信用公衆回線網20を介して接続された地図データベース用サーバー(コンピュータ)である。この地図用サーバー24は、例えば日本全国の地図を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データと関連付けながら、データベースとして記録している。この地図用サーバー24は、公衆回線網20により前記制御部23とオンラインで接続されている。なお、この公衆回線網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。   In FIG. 5, reference numeral 24 denotes a map database server (computer) connected to the control unit 23 via a computer communication public network 20 such as the Internet. This map server 24 associates a map of Japan with, for example, position identification data such as coordinate data (latitude data and longitude data), place name, facility name, facility identification data (facility telephone number, etc.) As recorded. The map server 24 is connected to the control unit 23 online by the public line network 20. The public line network 20 includes not only a wired communication network but also a wireless communication network such as a mobile phone network, a PHS (Personal Handyphone System) network, a car phone network, and an artificial satellite communication network. desirable.

また図5において、25は、インターネットなどのコンピュータ通信用公衆回線網20に接続された実況映像入力装置で、各実況地点それぞれ設けられ、各実況地点における複数方向の実況映像(各実況地点から複数方向に向かって見える実況映像)をそれぞれリアルタイムに常時入力する複数のデジタル・ビデオカメラと、これらのデジタル・ビデオカメラからのデジタル映像データを、インターネットなどのコンピュータ通信網を介してアクセスして来た複数のユーザーに対してオンラインで提供するための実況映像提供用コンピュータと、から構成されている。
この実況映像提供用コンピュータは、各地点の実況映像を、座標データ(緯度データ及び経度データ)、地名、施設名、施設の識別データ(施設の電話番号など)などの位置識別データ及び東西南北などの方向データと関連付けながら、データベースとして記録している。この実況映像提供用コンピュータは、前記通信網20により前記制御部3とオンラインで接続されている。なお、この通信網20は、有線通信網だけでなく、携帯電話網、PHS(パーソナル・ハンディホン・システム)網、自動車電話網及び人工衛星通信網などの無線通信網をも含むものであることが望ましい。
In FIG. 5, reference numeral 25 denotes a live video input device connected to a public network 20 for computer communication such as the Internet. Each live spot is provided, and a live video in a plurality of directions at each live spot (a plurality of live videos from each live spot). We have been accessing multiple digital video cameras that constantly input real-time video (viewed in the direction) in real time and digital video data from these digital video cameras via a computer communication network such as the Internet. And a live video providing computer for providing online to a plurality of users.
This computer for live video provides live video of each point, location data such as coordinate data (latitude data and longitude data), place name, facility name, facility identification data (such as facility phone numbers), It is recorded as a database in association with the direction data. This live video providing computer is connected to the control unit 3 online via the communication network 20. The communication network 20 preferably includes not only a wired communication network but also a wireless communication network such as a mobile phone network, a PHS (Personal Handyphone System) network, a car phone network, and a satellite communication network. .

制御部23は、ユーザーのキーボード26又はマウス27などの入力装置による指示により、前記地図用サーバー24にアクセスして、そこから、ユーザーが希望する地点(前記入力装置で指定した地点)を含む所定領域の地図のデータをオンラインで取り出して、LCD21に表示させる。
また、前記制御部23は、ユーザーがこの表示された地図の任意の地点をマウス27で指示しその地点を含む所定領域の実況映像の表示を指令したとき、前記各実況地点の前記実況映像提供用コンピュータを含む映像入力装置25にアクセスして、該当する所定領域の実況映像のデータをオンラインで取り出して、その実況映像をLCD21にリアルタイムに表示させる。
また、制御部23は、ユーザーが、例えば、表示を希望する地点の地名、施設名、施設の識別データなどを入力して該当する実況地点の実況映像又はその実況地点を含む地図の表示を希望したとき、前記映像入力装置25又は地図用サーバー24にアクセスして、該当する実況映像又は地図をオンラインで取り出して、それらをLCD21に表示させる。
また、制御部23は、ユーザーが自分が現在居る現在地点から進行方向に向かう方向で且つ最も近くの場所にある実況地点の実況映像であって、その進行方向に向かって見える実況映像を表示せよと指令したときは、前記GPS受信機22及び進行方向入力部26からユーザーの現在位置及び進行方向を座標データ(緯度データ及び経度データ)及び方向データとして受け取り、その座標データ及び方向データに基づいて、該当する前記各実況地点の映像入力装置25にアクセスして、オンラインで該当の実況映像の提供を受けて、LCD21に表示させる。なお、この場合の、前記制御部23が前記映像入力装置25から該当する実況映像の提供を受ける方法としては、従来のインターネット用のブラウジング・ソフトウェア(閲覧ソフトウェア)などによりこの各地の映像入力装置25にそれぞれ直接アクセスして取り込む方法と、前記映像入力装置25に対して該当する実況映像データを電子メールに添付したファイルとして送信してもらうように依頼してその送信により受け取る方法など、様々な方法が有り得る。
The control unit 23 accesses the map server 24 according to an instruction from the input device such as the keyboard 26 or the mouse 27 of the user, and from there, a predetermined point including a point desired by the user (a point specified by the input device). The area map data is retrieved online and displayed on the LCD 21.
Further, when the user designates an arbitrary point on the displayed map with the mouse 27 and instructs the display of a live image of a predetermined area including the point, the control unit 23 provides the live video of each live point. The video input device 25 including the computer is accessed, the live video data of the predetermined area is retrieved online, and the live video is displayed on the LCD 21 in real time.
In addition, the control unit 23, for example, inputs a place name, facility name, facility identification data, etc. of a point desired to be displayed, and wants to display a live video of the corresponding live spot or a map including the live spot. When this happens, the video input device 25 or the map server 24 is accessed, and the corresponding live video or map is retrieved online and displayed on the LCD 21.
In addition, the control unit 23 displays a live video of a live spot in the direction from the current location where the user is currently in the direction of travel to the nearest location and visible toward the travel direction. Is received as coordinate data (latitude data and longitude data) and direction data from the GPS receiver 22 and the traveling direction input unit 26, and based on the coordinate data and direction data. Then, the video input device 25 at each relevant live location is accessed, the relevant live video is provided online, and displayed on the LCD 21. In this case, as a method for the control unit 23 to receive the corresponding live video from the video input device 25, the video input device 25 in this place can be obtained by using conventional Internet browsing software (browsing software). There are various methods, such as a method of directly accessing and capturing the video data, and a method of requesting the video input device 25 to transmit the corresponding live video data as a file attached to an e-mail and receiving it by transmission. It is possible.

また、この実施例4では、前記制御部23は、ユーザーが、ある実況映像が前記LCD21に表示されているとき、その表示された実況映像の中のある部分だけを、例えば特定の建築物や特定の橋や特定の道路などの部分だけを、他の部分と見分けやすいように所定のマーキングをしたいと指令したときは、その部分を他と異なって目立つようにマーキングできる手段(プログラム)を含むのがよい。この場合のマーキングは、例えば、他と異なる色で着色して色別する方法、その部分のみに網掛け処理を行う方法、その部分を他の部分よりも太い実線で表示する方法、などの様々な方法がある。   In the fourth embodiment, when the user displays a live video image on the LCD 21, the control unit 23 selects only a certain part of the displayed live video image, for example, a specific building or Includes a program (program) that can be used to mark only specific parts such as a specific bridge or specific road so that they can be distinguished from other parts. It is good. The marking in this case is various, for example, a method of coloring with a different color from others, a method of performing a shading process only on that part, a method of displaying that part with a solid line thicker than the other parts, etc. There are many ways.

次に、図6は本発明の実施例5を示すブロック図である。図6において、符号21,22,23,26,27は図4におけると同様なので説明を省略する。図6において、34は制御部23に接続されたCD−ROMプレーヤ(再生装置)、35はこのCD−ROMプレーヤ34に読み取れらるCD−ROMである。このCD−ROM35には、例えば日本国の全体の地図を、座標データ(緯度・経度データ)、地名、施設名、施設識別データなどの位置識別データと関連付けて記録した地図データベースが記録されている。また図6において、31は、インターネットなどのコンピュータ通信網30に接続された映像入力装置で、図4の映像入力装置25と同様のものである。
前記制御部3は、前記CD−ROMプレーヤ14によりCD−ROM15を読み取ることにより、ユーザーが希望する位置を含む所定領域の地図を読み取ってLCD1に表示させることができる。また、前記制御部3は、前記コンピュータ通信網30を介して映像入力装置31にアクセスすることにより、ユーザーが希望する実況地点からのユーザーが希望する所定方向の実況映像を取り込み、LCD21に表示させることができる。
また、制御部23は、ユーザーが、「自分が現在居る現在地点から進行方向に向かう方向にある地点で且つ現在地点から最も近い実況地点の実況映像であって、その地点から自分の進行方向に向かって撮像した実況映像を、表示せよ」と指令したときは、前記GPS受信機22からユーザーの現在位置を座標データ(緯度データ及び経度データ)として受け取り、且つ、前記進行方向入力部26からユーザーの進行方向のデータを受け取り、その座標データ及び進行方向データに基づいて、前記映像入力装置31にアクセスして、該当の座標データに近い場所にある実況地点のもので且つユーザーの進行方向に近い方向の実況映像のデータをオンラインで読み取り、その実況映像をリアルタイムにLCD21に表示させる。
Next, FIG. 6 is a block diagram showing Embodiment 5 of the present invention. In FIG. 6, reference numerals 21, 22, 23, 26 and 27 are the same as those in FIG. In FIG. 6, 34 is a CD-ROM player (reproducing device) connected to the control unit 23, and 35 is a CD-ROM that can be read by the CD-ROM player 34. In this CD-ROM 35, for example, a map database is recorded in which an entire map of Japan is recorded in association with position identification data such as coordinate data (latitude / longitude data), place name, facility name, facility identification data, and the like. . In FIG. 6, reference numeral 31 denotes a video input device connected to a computer communication network 30 such as the Internet, which is the same as the video input device 25 of FIG.
The control unit 3 reads the CD-ROM 15 by the CD-ROM player 14, thereby reading a map of a predetermined area including a position desired by the user and displaying it on the LCD 1. In addition, the control unit 3 accesses the video input device 31 via the computer communication network 30 to capture the live video in the predetermined direction desired by the user from the live location desired by the user and display it on the LCD 21. be able to.
In addition, the control unit 23 displays a live video of a live spot that is in a direction from the current location where the user is currently in the direction of travel and closest to the current location, and from that location to the travel direction of the user. When the command to display the live video imaged toward the user is received as the coordinate data (latitude data and longitude data) from the GPS receiver 22, and the user inputs from the traveling direction input unit 26 The data input direction 31 is received, and the video input device 31 is accessed based on the coordinate data and the direction data. The live video of the direction is read online, and the live video is displayed on the LCD 21 in real time.

なお、ここで、本明細書で開示した諸発明の中で、本願の特許請求の範囲に記載していない発明について、その効果を説明しておく。
(1)本発明による実況映像提供システムによれば、ユーザーは、地図を見ながら、例えば希望の地点をポインティングデバイスで指定する(例えばマウスでクリックする)だけで、その地点の今の現時点の状況を実況映像で見ることができる。また、ユーザーは、いちいちポインティングデバイスで指定しなくても、予めコンピュータプログラムで実況映像を希望する複数の地点の地点識別データを順次入力するようにしておけば、コンピュータにより次々と希望する地点に対応する実況映像を表示させることができる。よって、ここでも、ユーザーは地図を見ながら、実際には行っていないのに実際に行っているのと同じ感動を得られる「バーチァル・トラベル(仮想旅行)」を実現できるようになる。
また、例えば、全世界の地図から全世界の各地の実況映像をみながら、全世界のユーザーが一つの宝を探していくというような、コンピュータ通信ネットワークの世界の中での「宝探し」ゲームを世界中で同時に競うことも可能になる。
(2)また、本発明による実況映像提供システムによれば、ユーザーは、ある地点の実況映像を見ながら、その実況映像の識別データから、対応する地図上の地点を表示させることができるので、ある実況映像を見て、その実況映像が見える場所が地図上のどこなのか(どういう地名・施設名なのかなど)を、容易に知ることができるようになる。
(3)また本発明による実況映像提供システムによれば、ユーザーは、自分の希望する文字列等により構成される検索データを入力することにより、その検索データに対応する一つ又は複数の地点の実況映像を、その場でリアルタイムに見ることが可能になる。特に、遠隔の複数の地点における今この瞬間の実況を映像でリアルタイムに順次見ることができる「バーチャル・トラベル(仮想旅行)」を提供できるようになる。
(4)なお、本発明において、前記各実況映像を特定するための実況映像識別データを、前記映像入力手段が設けられた各地点を示す位置データとその映像入力手段が撮影した方向を示す方向データとから構成するようにすれば、同じ地点でも、見る方向によって異なる実況映像を提供できるようになり、「生の現場」をより詳細にリアルタイムに再現できる実況映像を提供できるようになる。
(5)また、本発明では、前記表示手段に表示された実況映像の中のユーザーが指定した部分に対して他の部分と区別するためのマーキングをするためのマーキング手段を備えることにより、実況映像(動画でも静止画でもよい)の中のある部分(例えば、特定の建造物、橋、道路、河川、公園など)のみをマーキングできるので、実況映像を自分の目的に応じて見やすい形に加工できるようになる。
(6)また、本発明において、前記映像入力手段に、その地点において発生している音声をリアルタイムに入力する手段をも含ませ、これらの入力された音声をそれぞれリアルタイムに無線又は有線で取り込む(インターネット用ブラウザーによる閲覧する場合や通信ネットワークにより送信させる場合などを含む)ことにより、ユーザーは、実況映像(現場の生の映像。動画又は静止画)だけでなく、「現場の生の音声」をも併せて知ることが可能になる。
(7)また本発明では、さらに、前記映像入力手段の近傍に備えられ、匂いセンサと、この匂いセンサからの信号を匂いデジタルデータに変換する手段とから構成され、前映像入力手段の設置された地点又はその周辺の匂いを入力するための匂い入力手段と、この匂い入力手段からの匂いデータを、その匂いに近似した匂いを発生させるための芳香剤調合データに変換する手段と、前記表示手段の近傍に備えられ、前記芳香剤調合データから芳香剤を調合して所望の匂いを発生させる匂い発生手段と、を含むようにすることにより、ユーザーは、前記の実況映像と実際の音声だけでなく、現場の実際の匂いをも、リアルタイムに遠隔地において感得することができるようになる。
Here, among the various inventions disclosed in this specification, the effects of the invention not described in the claims of the present application will be described.
(1) According to the live video providing system according to the present invention, the user simply specifies a desired point with a pointing device (for example, clicks with a mouse) while looking at the map, and the current state of the point at that point. Can be seen in live video. Also, even if the user does not specify each with a pointing device, if the point identification data of multiple points for which live video is desired is input sequentially in advance by a computer program, the computer will respond to the desired points one after another. Live video can be displayed. Therefore, the user can also realize “virtual travel” while looking at the map and can get the same impression as if he / she did not actually go.
Also, for example, a “treasure hunting” game in the world of computer communication networks where users from all over the world look for a single treasure while watching live video from around the world from a map of the whole world. It will be possible to compete all over the world at the same time.
(2) Further, according to the live video providing system according to the present invention, the user can display the corresponding point on the map from the live video identification data while viewing the live video of the certain point. By viewing a live video, you can easily know where the live video can be seen on the map (what kind of place name, facility name, etc.).
(3) Also, according to the live video providing system according to the present invention, the user can input one or more points corresponding to the search data by inputting the search data composed of a desired character string or the like. Live video can be viewed in real time on the spot. In particular, it will be possible to provide “virtual travel” in which the actual situation at this moment in a plurality of remote locations can be sequentially viewed in real time.
(4) In the present invention, the live video identification data for specifying each live video, the position data indicating each point provided with the video input means, and the direction indicating the direction taken by the video input means If it is made up of data, it will be possible to provide live video that differs depending on the viewing direction even at the same point, and it will be possible to provide live video that can reproduce the “raw site” in more detail in real time.
(5) Further, in the present invention, by providing a marking means for marking the part specified by the user in the live video displayed on the display means to distinguish it from other parts, Since you can only mark certain parts (for example, specific buildings, bridges, roads, rivers, parks, etc.) in the video (which can be video or still images), the live video can be easily processed according to your purpose. become able to.
(6) Further, in the present invention, the video input means also includes means for inputting the sound generated at the point in real time, and these input sounds are respectively captured in real time by wireless or wired ( By browsing with an internet browser or sending it over a communications network, users can not only view live footage (live footage, video or still images), but also live footage. It becomes possible to know at the same time.
(7) In the present invention, it is further provided in the vicinity of the video input means, and includes an odor sensor and a means for converting a signal from the odor sensor into odor digital data. Odor input means for inputting the odor at or around the spot, means for converting the odor data from the odor input means into fragrance preparation data for generating an odor similar to the odor, and the display Odor generating means for generating a desired odor by preparing a fragrance from the fragrance preparation data, so that the user can obtain only the live video and the actual sound. In addition, the actual scent of the site can be sensed in a remote place in real time.

本発明の実施例1又は2のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of Example 1 or 2 of this invention. 本発明の実施例1又は2の概念的構成を示す図である。It is a figure which shows the notional structure of Example 1 or 2 of this invention. 本発明の実施例1のディスプレイの構成を示す図である。It is a figure which shows the structure of the display of Example 1 of this invention. 本発明の実施例1においてディスプレイに表示される地図の一例を示す図である。It is a figure which shows an example of the map displayed on a display in Example 1 of this invention. 本発明の実施例4を示すブロック図である。It is a block diagram which shows Example 4 of this invention. 本発明の実施例5を示すブロック図である。It is a block diagram which shows Example 5 of this invention.

符号の説明Explanation of symbols

1 パーソナルコンピュータ(パソコン)
2 制御装置
3 ハードディスク装置
4 CD−ROM
5 CD−ROMドライブ5
6 キーボード
7 ディスプレイ
7a ディスプレイの上半分
7b ディスプレイの下半分
8 スピーカ
10 公衆回線
11 中継サービス用コンピュータ
12,12a,12b ビデオカメラ
13,13a,13b マイク
21 LCD. 22 GPS受信機. 23 制御部.
24 地図データベース用サーバー(コンピュータ).
25 映像入力装置. 26 キーボード. 27 マウス.
30 コンピュータ通信網. 31 映像入力装置.
34 CD−ROMプレーヤ. 35 CD−ROM
1 Personal computer
2 Control device 3 Hard disk device 4 CD-ROM
5 CD-ROM drive 5
6 Keyboard 7 Display 7a Upper half of display 7b Lower half of display 8 Speaker 10 Public line 11 Relay service computer 12, 12a, 12b Video camera 13, 13a, 13b Microphone 21 LCD. 22 GPS receiver. 23 Control unit.
24 Map database server (computer).
25 Video input device. 26 Keyboard. 27 Mouse.
30 Computer communication network. 31 Video input device.
34 CD-ROM player. 35 CD-ROM

Claims (3)

地図上の複数の地点に対応する実際の地点にそれぞれ設けられ、その地点の周辺の実況映像をリアルタイムに入力する映像入力手段であって、それぞれがネットワークに接続されている映像入力手段と、
ユーザーの現在位置を推測する現在位置推測手段と、
この現在位置推測手段により得られた推測現在位置に対応する地図上の地点を求める手段と、
この地図上の地点を求める手段により求められた地点に対応する実際の地点に設けられた前記映像入力手段からの実況映像をネットワークを介して取り込む取り込み手段と、
この取込まれた実況映像を表示する表示手段と、
を備えたことを特徴とする実況映像を利用した現在位置確認システム。
Video input means that are provided at actual points corresponding to a plurality of points on the map and that input live video around the point in real time, each of which is connected to a network;
Current position estimation means for estimating the current position of the user;
Means for obtaining a point on the map corresponding to the estimated current position obtained by the current position estimating means;
A capturing means for capturing a live video from the video input means provided at an actual point corresponding to the point determined by the means for determining a point on the map via a network;
Display means for displaying the captured live image,
A current location confirmation system using live video, characterized by having
公衆への開示が可能な多数の実況地点の実況映像をそれぞれリアルタイムに常時入力するために各実況地点にそれぞれ設けられた映像入力手段と、
前記各実況映像を互いに識別するための実況映像識別データを記録する実況映像識別データ記録手段と、
ユーザーの現在位置を推測する現在位置推測手段と、
この現在位置推測手段により推測されたユーザーの推測現在位置に基づいて、前記実況映像識別データ記録手段から、前記ユーザーの推測現在位置の近くにある一つ又は複数の実況地点の実況映像を特定するための実況映像識別データを選択する実況映像識別データ選択手段と、
この選択された実況映像識別データに基づいて、該当する実況映像をオンラインで取り込む映像取り込み手段と、
この映像取り込み手段により取り込まれた実況映像をリアルタイムに表示する表示手段と、
からなる、実況映像を利用した現在位置確認システム。
Video input means provided at each live site in order to constantly input live video of many live sites that can be disclosed to the public in real time,
Live video identification data recording means for recording live video identification data for identifying the live video from each other;
Current position estimation means for estimating the current position of the user;
Based on the estimated current position of the user estimated by the current position estimating means, the actual image of one or more actual positions near the estimated current position of the user is specified from the actual image identification data recording means. Live video identification data selection means for selecting live video identification data for,
Based on the selected live video identification data, a video capture means for capturing the live video online,
Display means for displaying the live video captured by the video capturing means in real time;
A current location confirmation system using live video.
請求項1又は2において、
前記映像入力手段は、前記各実況地点から複数の方向に向かって見える映像をそれぞれ撮像するものであり、
前記各実況映像を互いに識別するための実況映像識別データは、前記映像入力手段が設けられた各実況地点の位置を示す位置データと、その映像入力手段が撮像する方向を示す方向データと、から構成されており、
前記推測現在位置特定手段は、ユーザーの現在位置を推測する手段とユーザーの進行方向を特定する手段とを含んでおり、
前記実況映像識別データ選択手段は、前記現在位置推測手段により推測されたユーザーの推測現在位置及びユーザーの進行方向に基づいて、ユーザーの推測現在位置からユーザーの進行する側の方向に存在する実況地点であってユーザーの推測現在位置に近い実況地点の位置を示す位置データと、ユーザーの進行方向を示す方向データと、から成る実況映像識別データを、選択するものである、
ことを特徴とする実況映像を利用した現在位置確認システム。
In claim 1 or 2,
The video input means captures images that can be seen in a plurality of directions from the live spots,
The live video identification data for identifying each live video from each other includes position data indicating the position of each live spot where the video input means is provided, and direction data indicating the direction in which the video input means is imaged. Configured,
The estimated current position specifying means includes means for estimating the current position of the user and means for specifying the traveling direction of the user,
The live video identification data selecting means is based on the user's estimated current position and the user's traveling direction estimated by the current position estimating means, and the live spot that exists in the direction of the user's progress from the user's estimated current position And the live video identification data consisting of position data indicating the position of the live spot close to the estimated current position of the user and direction data indicating the direction of travel of the user is selected.
A current location confirmation system using live video.
JP2005380704A 1996-06-11 2005-12-30 Video and odor providing system Expired - Fee Related JP4473216B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005380704A JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP08172930 1996-06-11
JP2005380704A JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004291022A Division JP2005102236A (en) 1996-06-11 2004-10-04 System for providing images of vicinity of current position at approximately real time

Publications (3)

Publication Number Publication Date
JP2006136019A true JP2006136019A (en) 2006-05-25
JP2006136019A5 JP2006136019A5 (en) 2009-02-26
JP4473216B2 JP4473216B2 (en) 2010-06-02

Family

ID=36729049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005380704A Expired - Fee Related JP4473216B2 (en) 1996-06-11 2005-12-30 Video and odor providing system

Country Status (1)

Country Link
JP (1) JP4473216B2 (en)

Also Published As

Publication number Publication date
JP4473216B2 (en) 2010-06-02

Similar Documents

Publication Publication Date Title
JP7192923B2 (en) Apparatus, method, program, system
JPH11316769A (en) Virtual travel system
JP4637889B2 (en) Virtual space broadcasting device
CN101680766B (en) Image capturing device, additional information providing server, and additional information filtering system
US9292516B2 (en) Generation, organization and/or playing back of content based on incorporated parameter identifiers
JP4323123B2 (en) A mobile system that identifies sites of interest
US20050192025A1 (en) Method and apparatus for an interactive tour-guide system
CN100466697C (en) Active picture display device
JP6390992B1 (en) Street viewer system
JP4591932B2 (en) A device for viewing live footage suitable for use in virtual travel, etc.
US20150242767A1 (en) Aerial view, web-based trip planning techniques using geotagged video and images syncd to a map
JP5231598B2 (en) Current location confirmation system using live video
JPH1066058A (en) Live image providing system
JPH11103451A5 (en) A device for viewing live video suitable for use in virtual travel, etc.
JP2013232238A (en) Stay-at-home travel system
JP2000035973A5 (en)
JP2000035973A (en) Remote odor generation system
JP2019091455A (en) Information processing system, information processing system control method, program, and recording medium
KR101850501B1 (en) System for providing history contents
JP2005102236A (en) System for providing images of vicinity of current position at approximately real time
JP4473216B2 (en) Video and odor providing system
JP2008118691A (en) Stay-at-home travel system
JP2002223432A (en) Stay-at-home travel system
JP2022058486A (en) Street viewer system
JP6757089B1 (en) Aerial / ground spherical photo link tour system

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060223

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070910

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080618

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090601

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100304

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130312

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140312

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees