[go: up one dir, main page]

JP2000298662A - Automatic information detection device - Google Patents

Automatic information detection device

Info

Publication number
JP2000298662A
JP2000298662A JP11108319A JP10831999A JP2000298662A JP 2000298662 A JP2000298662 A JP 2000298662A JP 11108319 A JP11108319 A JP 11108319A JP 10831999 A JP10831999 A JP 10831999A JP 2000298662 A JP2000298662 A JP 2000298662A
Authority
JP
Japan
Prior art keywords
information
input
learning
layer
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11108319A
Other languages
Japanese (ja)
Inventor
Shoko Kawaguchi
将顧 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP11108319A priority Critical patent/JP2000298662A/en
Publication of JP2000298662A publication Critical patent/JP2000298662A/en
Pending legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

(57)【要約】 【課題】 入力情報が増加した場合にも、メモリ量、計
算量が従来技術に比べて少なくて済むシステム、つまり
情報抽出の精度向上と学習効率の向上という相反する命
題を解決するシステムを提供すること 【解決手段】 カテゴライズされた複数の情報源とカテ
ゴリー情報を持つデータベース10と、前記データベー
ス10に記憶されたデータのうち、利用者が選択したデ
ータの履歴から利用者の関心内容を学習する自動情報検
出部8と、前記自動情報検出部8による学習内容に基づ
いて利用者の関心に合致するデータに対応する情報を提
供する情報提示部11とを備え、自動情報検出部8にお
ける学習システムには各入力層間の相互関係を考慮した
複数段の入力層41、42を設ける。
(57) [Summary] [PROBLEMS] A system in which even if input information increases, the amount of memory and the amount of calculation can be reduced compared with the conventional technology, that is, conflicting propositions of improving information extraction accuracy and learning efficiency. Provided is a system that solves the problem. A database 10 having a plurality of categorized information sources and category information, and a history of data selected by the user among the data stored in the database 10 are provided. An automatic information detection unit that learns the content of interest; and an information presentation unit that provides information corresponding to data that matches the user's interest based on the learning content of the automatic information detection unit. the learning system in section 8 providing the input layer 4 1, 4 2 a plurality of stages in consideration of the mutual relationship between the input layers.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、利用者の個性を学
習させる事によって利用者の必要性に合致する情報源を
選び出す自動情報検出装置に関し、特に情報源を選び出
す際の学習、演算速度、及び抽出精度の向上に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic information detecting apparatus for selecting an information source that meets a user's need by learning the personality of the user. And improvement of extraction accuracy.

【0002】[0002]

【従来の技術】従来、利用者の興味情報を自動的に抽出
するシステムとしては、(1)特開平6−124309
号公報(情報サービス及び放送受信システム)や(2)
特開平5−314186号公報(自動情報源選択装置)
が知られている。従来技術(1)(2)共に、入力され
た情報を同じ階層に配し、その演算結果によって利用者
の望む情報を抽出している。
2. Description of the Related Art Conventionally, a system for automatically extracting interest information of a user is disclosed in (1) Japanese Patent Laid-Open No. 6-124309.
Publication (information service and broadcast receiving system) and (2)
JP-A-5-314186 (automatic information source selection device)
It has been known. In both of the prior arts (1) and (2), input information is arranged on the same layer, and information desired by the user is extracted based on the operation result.

【0003】[0003]

【発明が解決しようとする課題】従来の方法で利用者の
望む情報をより詳しく抽出するためには、それだけ入力
する情報の量を増やす必要がある。しかしながら、入力
情報量を増やせば増やすほど、ニーラルネットワーク
(以下、「NN」と略記する)の学習、演算に必要とな
る計算量やメモリ量も増大することとなってしまうため
に、実際上、学習システムを処理時間的、メモリ量的、
或いは計算量的に実用的範囲に収めようとする場合には
入力情報量を限定せざるをえなかった。以下、具体的に
ニューラルネットワーク(NN)について図26、27
を参照しながら簡単に説明しつつ、上記問題点を説明す
る。
In order to extract the information desired by the user in more detail by the conventional method, it is necessary to increase the amount of input information. However, as the amount of input information increases, the amount of calculation and memory required for learning and calculation of a neural network (hereinafter abbreviated as “NN”) also increases, so that in practice, , Learning system processing time, memory amount,
Alternatively, in order to reduce the amount of calculation to a practical range, the amount of input information must be limited. Hereinafter, the neural network (NN) will be specifically described with reference to FIGS.
The above-mentioned problems will be described briefly with reference to FIG.

【0004】ニューラルネットワーク(NN)は神経繊
維に相当するシナプスと、そのネットワーク上での交点
(ノード)からなる。このシナプスとノードからなる最
小単位をセルと呼ぶ。本発明ではセル1を構成する要素
であるノードを基本素子2、シナプスを結合素子3と表
記する(図27参照)。
[0004] A neural network (NN) comprises synapses corresponding to nerve fibers and intersections (nodes) on the network. The minimum unit consisting of the synapse and the node is called a cell. In the present invention, a node constituting the cell 1 is referred to as a basic element 2 and a synapse is referred to as a coupling element 3 (see FIG. 27).

【0005】図27は、4入力X1〜X4の場合のセル
1を示している。入力信号Xiは、結合素子3を介して
基本素子2に入力される。結合素子3はある重み(結合
荷重:Wi)を持ち、入力信号Xはこの重みをつけられ
て結合された基本素子2に入力される。重みを付けられ
たそれぞれの入力値(WiXi)は、総和Xがとられ出
力関数fによる変形を受けた後に出力される。出力値y
は式で表すと y=f(X) (ここでX=ΣWiXi) となる。
FIG. 27 shows a cell 1 in the case of four inputs X1 to X4. The input signal Xi is input to the basic element 2 via the coupling element 3. The coupling element 3 has a certain weight (coupling weight: Wi), and the input signal X is input to the elementary element 2 which is weighted and coupled. The weighted input values (WiXi) are output after the sum X is obtained and the input values (WiXi) are transformed by the output function f. Output value y
Is represented by the following formula: y = f (X) (where X = ΣWiXi).

【0006】また、出力値yはその時点でのセル1の状
態を表す。重みの値Wは、興奮性の結合の時は正の値
を、抑制性の結合の時は負の値をとる。また、結合素子
3の可塑性に対応して、重みの値Wは学習によって変化
させる事が出来る。
The output value y represents the state of the cell 1 at that time. The weight value W takes a positive value in the case of excitatory connection, and takes a negative value in the case of suppressive connection. Further, the weight value W can be changed by learning according to the plasticity of the coupling element 3.

【0007】基本素子2へ入力された信号Xiの荷重和
Xは、ユニットの応答特性(f)に従って変形されて出
力されるが、応答特性にはさまざまなものがある。代表
的なものに下記の閾値関数(式1)やシグモイド関数
(式2)等がある。 f(X)=(1(X≧0),0(X<0)) (式1) f(X)=1/(1+exp(−X)) (式2)
The load sum X of the signal Xi input to the basic element 2 is output after being transformed according to the response characteristic (f) of the unit. There are various response characteristics. Representative examples include the following threshold function (Equation 1) and sigmoid function (Equation 2). f (X) = (1 (X ≧ 0), 0 (X <0)) (Equation 1) f (X) = 1 / (1 + exp (−X)) (Equation 2)

【0008】図26に、このセル1を用いた3層パーセ
プトロンと呼ばれるニューラルネットワークの基本的な
構成を示す。第1層(入力層)4に外部からの入力を与
えられると、第1層4とのさまざまな結合によって入力
信号を変換する第2層(中間層)5に信号が送られ、そ
こで変換された信号はセル単体で構成される第3層(出
力層)6に送られ、信号の総和をとられた後に出力関数
を通って出力される。
FIG. 26 shows a basic configuration of a neural network called a three-layer perceptron using the cell 1. When an external input is given to the first layer (input layer) 4, a signal is sent to a second layer (intermediate layer) 5 which converts an input signal by various couplings with the first layer 4, and is converted there. The output signal is sent to a third layer (output layer) 6, which is composed of a single cell, and after being summed up, is output through an output function.

【0009】NNに入力された情報をより詳細に分析す
るためには中間層5を増やし、さらに各層の基本素子数
を増やす事が必要である。これにより素子の総和(各層
を構成する基本素子数と各層間を結合する結合素子数の
和)が増加してしまう。その中でも、結合素子数は前段
の全ての基本素子2と、後段の全ての基本素子2とを結
合させるため、中間層5を増やし、さらに各層の基本素
子数を増やすとなると結合素子数の増加はかなりのもの
になる。コンピュータ上におけるNNの実現での大きな
ネックとなるのがメモリ消費量の問題や、情報検出や学
習の際の計算量の問題であり、言いかえればこの素子数
の増加の問題なのである。
In order to analyze the information input to the NN in more detail, it is necessary to increase the number of intermediate layers 5 and further increase the number of basic elements in each layer. As a result, the total sum of the elements (the sum of the number of basic elements constituting each layer and the number of coupling elements coupling each layer) increases. Among them, the number of coupling elements is increased by increasing the number of intermediate layers 5 and further increasing the number of basic elements of each layer in order to couple all the basic elements 2 in the preceding stage and all the basic elements 2 in the subsequent stage. Will be considerable. The major bottlenecks in the realization of NNs on a computer are the problem of memory consumption and the problem of the amount of calculation at the time of information detection and learning. In other words, the problem of the increase in the number of elements.

【0010】計算量について考えてみると、NNの計算
は、前段から基本素子2に入力される入力値に重みを掛
けた結合素子3からの入力の総和(荷重和)の計算と、
基本素子2から出力される値を算出するための出力関数
の計算の2つに分けられる。
Considering the amount of calculation, the calculation of NN is performed by calculating the total sum (load sum) of inputs from the coupling element 3 obtained by multiplying the input value input from the preceding stage to the basic element 2 by weighting;
Calculation of an output function for calculating a value output from the basic element 2 is divided into two.

【0011】荷重和の計算自体は単純である。しかし、
結合素子数が増加するとその計算量は膨大なものとな
る。また、NNの学習はこの結合素子3の重みを変化さ
せる事によって行われる。その際の結合素子3単体の計
算量はアルゴリズムにもよるが、すべての結合素子3を
学習させるためには結合素子数に比例した計算時間が必
要となる。
The calculation itself of the sum of the loads is simple. But,
As the number of coupling elements increases, the amount of calculation becomes enormous. The learning of the NN is performed by changing the weight of the coupling element 3. At this time, the amount of calculation of the single coupling element 3 depends on the algorithm, but it takes a calculation time proportional to the number of coupling elements to learn all the coupling elements 3.

【0012】出力関数の計算量は関数にもよるが、基本
的に複雑な関数を必要としないので基本素子単体の計算
量はそれほど多くない。しかし、すべての基本素子2で
計算が行われるので計算スピードを向上させるためには
素子数の増加を押さえる事は必要である。
Although the amount of calculation of the output function depends on the function, the amount of calculation of the basic element alone is not so large because a complicated function is basically not required. However, since the calculation is performed in all the basic elements 2, it is necessary to suppress the increase in the number of elements in order to improve the calculation speed.

【0013】次に、メモリの消費量について考える。メ
モリは結合素子3の重みを保存する空間として必要であ
る。NNを用いて詳細な情報解析を行う場合には上記し
たように、中間層5を増やし、さらに各層の基本素子数
を増やす必要があり、これにより結合素子数が増加す
る。よって詳細な情報解析にはメモリ量が必要となる。
Next, consider the memory consumption. The memory is required as a space for storing the weight of the coupling element 3. When detailed information analysis is performed using the NN, as described above, it is necessary to increase the number of the intermediate layers 5 and further increase the number of basic elements in each layer, thereby increasing the number of coupling elements. Therefore, memory analysis is required for detailed information analysis.

【0014】以上のように、NNにおいて詳細な情報解
析を行うためにはメモリ量、計算量が必要となる。言い
換えれば、限定されたメモリ空間、限定されたCPUの
演算能力では詳細な情報解析を行う事が出来ない。
As described above, in order to perform detailed information analysis in the NN, a memory amount and a calculation amount are required. In other words, detailed information analysis cannot be performed with a limited memory space and a limited calculation capability of the CPU.

【0015】本発明は、前記の問題点を解消するためな
されたものであって、入力情報が増加した場合にも、メ
モリ量、計算量が従来技術に比べて少なくて済むシステ
ム、つまり情報抽出の精度向上と学習効率の向上という
相反する問題を解決する自動情報検出装置を提供するこ
とを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and a system which requires less memory and calculation than conventional techniques even when input information increases, that is, information extraction. It is an object of the present invention to provide an automatic information detection device that solves the conflicting problems of improving the accuracy of learning and improving learning efficiency.

【0016】[0016]

【課題を解決するための手段】本発明は、上記の目的を
達成するため、次の構成を有する。請求項1の発明は、
入力情報の履歴から利用者が興味を持つ情報を学習する
学習手段と、前記学習手段による学習内容に基づいて利
用者の関心に合致する情報を自動的に提供する情報提供
手段とを備えた自動情報検出装置において、前記学習手
段は、入力情報を分類した分類入力情報のうち、1又は
2以上の分類入力情報を入力する入力層を学習処理手順
方向に複数段に設け、前段入力層の学習結果を後段入力
層に入力することを特徴とする自動情報検出装置であ
る。
The present invention has the following configuration to achieve the above object. The invention of claim 1 is
An automatic learning device comprising: learning means for learning information of interest to a user from a history of input information; and information providing means for automatically providing information matching the interest of the user based on the learning content of the learning means. In the information detection device, the learning means may include a plurality of input layers for inputting one or more classification input information among the classification input information obtained by classifying the input information, in a plurality of stages in a learning processing procedure direction, and perform learning of a preceding input layer. An automatic information detection apparatus characterized in that a result is input to a subsequent input layer.

【0017】請求項2の発明は、前記同一入力層に、独
立関係にある分類入力情報を有することを特徴とする請
求項1に記載の自動情報検出装置である。
According to a second aspect of the present invention, there is provided the automatic information detecting apparatus according to the first aspect, wherein the same input layer has classified input information having an independent relationship.

【0018】請求項3の発明は、前記学習手段は、ニュ
ーラルネットワークで構築することを特徴とする請求項
1又は2に記載の自動情報検出装置である。
The invention according to claim 3 is the automatic information detecting apparatus according to claim 1 or 2, wherein the learning means is constructed by a neural network.

【0019】請求項4の発明は、いずれかの入力層にお
けるニューラルネットワーク処理に替えて、ニューラル
ネットワーク以外の処理結果を該入力層の処理結果とす
ることを特徴とした請求項3に記載の自動情報検出装置
である。
According to a fourth aspect of the present invention, there is provided the automatic transmission system according to the third aspect, wherein a processing result other than the neural network is used as the processing result of the input layer, instead of the neural network processing in one of the input layers. It is an information detection device.

【0020】請求項5の発明は、前段入力層の出力情報
に基づき、後段入力層のいずれかの分類入力情報の処理
を制限することを特徴とする請求項1ないし4のいずれ
か1項に記載の自動情報検出装置である。
According to a fifth aspect of the present invention, the processing of any one of the classification input information of the subsequent input layer is restricted based on the output information of the previous input layer. It is an automatic information detection device as described.

【0021】請求項1の発明によれば、学習手段におい
て入力情報を分類した分類入力情報のうち、1又は2以
上の分類入力情報を入力する入力層を学習処理手順方向
に複数段に設け、前段入力層の学習結果を後段入力層に
入力、反映することにより、入力情報を一律に用いて全
ての可能性について学習するのではなく、上段入力層に
入力された分類入力情報に関して処理するとともに、上
段入力層の学習結果を下段入力層に入力、反映させるこ
とを繰り返し、最終的に最下段の入力層の出力結果によ
り最適情報を情報提供手段を通じて利用者に提供するこ
ととなる。
According to the first aspect of the present invention, input layers for inputting one or more classification input information among the classification input information obtained by classifying the input information in the learning means are provided in a plurality of stages in the learning processing procedure direction, By inputting and reflecting the learning result of the former input layer to the latter input layer, instead of learning all the possibilities using the input information uniformly, it processes the classification input information input to the upper input layer and Inputting and reflecting the learning result of the upper input layer to the lower input layer is repeated, and ultimately the optimum information is provided to the user through the information providing means based on the output result of the lowermost input layer.

【0022】各入力層では、入力情報を一律に全ての可
能性について学習するのではなく、分類入力情報を用い
て学習するために処理時間は短く、処理に必要とするハ
ードウェア資源も大規模なものを必要としない。そし
て、前段の学習結果を後段の入力層に反映させること
で、最終的には全ての入力情報を考慮した結果をも得る
ことができる。
In each input layer, processing time is short because input information is not learned uniformly for all possibilities but is learned using classification input information, and the hardware resources required for processing are large. Does not need anything. Then, by reflecting the learning result of the former stage on the input layer of the latter stage, it is possible to finally obtain a result in which all input information is considered.

【0023】請求項2の発明によれば、同一入力層に独
立関係にある分類入力情報を有することで、入力情報の
相互関係がないものに関してはその入力情報間での不必
要な学習処理を削除することができ、処理時間の短縮と
小さなハードウェア資源での処理を可能とできる。この
独立関係にある分類入力情報は同一入力層で別個独立し
て並列処理することで前段の出力結果を反映させなが
ら、不必要な学習処理を削除することが可能となる。こ
の場合も分類入力情報ごとの処理であるために、検索処
理時間は短く、ハードウェア資源への負担も少ない。
According to the second aspect of the present invention, since the same input layer has classified input information having an independent relation, unnecessary learning processing between the input information can be performed for input information having no mutual relation. It can be deleted, and processing time can be reduced and processing can be performed with small hardware resources. The classified input information having an independent relationship is processed independently and in parallel in the same input layer, so that unnecessary learning processing can be deleted while reflecting the output result of the preceding stage. Also in this case, since the processing is performed for each classification input information, the search processing time is short, and the burden on hardware resources is small.

【0024】請求項3の発明によれば、前記学習手段を
ニューラルネットワークで構築することで、入力情報の
履歴から利用者が興味を持つ情報を効率的に学習でき
る。
According to the third aspect of the present invention, by constructing the learning means with a neural network, it is possible to efficiently learn information of interest to a user from the history of input information.

【0025】請求項4の発明によれば、いずれかの入力
層におけるニューラルネットワーク処理に替えて、ニュ
ーラルネットワーク以外の処理結果を該入力層の処理結
果とするため、ニューラルネットワークによる学習に適
さない処理を他の手段に代替することで処理効率を向上
できる。
According to the fourth aspect of the present invention, a processing result other than the neural network is used as the processing result of the input layer instead of the neural network processing in any of the input layers. The processing efficiency can be improved by substituting for other means.

【0026】請求項5の発明によれば、前段入力層の出
力情報に基づき、後段入力層のいずれかの分類入力情報
の処理を制限することにより、明らかに不必要な学習処
理を削除することができ、ハードウェア資源への負担も
少なくできる。
According to the fifth aspect of the present invention, the processing of one of the classification input information in the subsequent input layer is restricted based on the output information of the preceding input layer, thereby eliminating the apparently unnecessary learning processing. And the burden on hardware resources can be reduced.

【0027】[0027]

【発明の実施の形態】本発明の実施形態に係る自動情報
検索装置(システム)では、入力情報を上位と下位の情
報に分け、下位の情報に上位の情報に即したカテゴリー
分類を行う。これにより、同一階層における入力情報処
理と比べても情報検索能力を損なうことなく結合素子の
数を減少させる事が可能となる。つまり、限定されたメ
モリ空間、CPUの演算能力でも詳細な情報検索が可能
となる。また、これらの特徴を持った自動情報検索シス
テムを通信情報、例えばテレビ、ラジオ等の番組検出や
インターネット(電子メールシステム等)やエキスパー
トシステム等の情報検出に適用する事により、利用者の
好みの番組、情報へのアクセスが容易となる。以下、図
面を参照して本発明の実施形態を詳細に説明する。尚、
上記説明した構成と同一部分には同一符号を付して説明
を省略する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS In an automatic information retrieval apparatus (system) according to an embodiment of the present invention, input information is divided into upper and lower information, and the lower information is classified into categories according to the higher information. As a result, it is possible to reduce the number of coupling elements without impairing the information retrieval ability even when compared with input information processing in the same hierarchy. In other words, detailed information search can be performed even with a limited memory space and CPU operation capacity. In addition, by applying the automatic information retrieval system having these features to communication information, for example, detection of programs such as television and radio, and information detection of the Internet (e-mail system, etc.), expert systems, etc. Access to programs and information is facilitated. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. still,
The same components as those described above are denoted by the same reference numerals and description thereof will be omitted.

【0028】[第1の実施形態]図1は、本発明の第1
の実施形態に係る自動情報検出装置のブロック図であ
り、情報選択部7、自動情報検出部8、アクセス履歴管
理部9、情報データベース10、及び情報提示部11か
ら概略構成される。
[First Embodiment] FIG. 1 shows a first embodiment of the present invention.
1 is a block diagram of an automatic information detection device according to an embodiment of the present invention, which is schematically composed of an information selection unit 7, an automatic information detection unit 8, an access history management unit 9, an information database 10, and an information presentation unit 11.

【0029】情報選択部7は、利用者が希望する情報に
アクセスするための入力手段であり、例えばリモコン、
チューナー、キーボード等が該等する。
The information selecting section 7 is an input means for accessing information desired by the user.
Tuners, keyboards, and the like are equivalent.

【0030】自動情報検出部8は、学習処理演算を行っ
て利用者の希望する情報を検出する手段であり、前記情
報選択部7、アクセス履歴管理部9、及び情報データベ
ース10からの情報に基づき学習を行う。尚、処理内容
については後述する。
The automatic information detecting section 8 is a means for detecting information desired by the user by performing a learning processing operation, and based on information from the information selecting section 7, the access history managing section 9, and the information database 10. Do the learning. The processing contents will be described later.

【0031】アクセス履歴管理部9は、利用者の興味、
趣味等がどのようなものかを重み付け可能とすべくシス
テム利用状況を記憶、保存、及び更新を管理するもので
あり、利用者が情報選択部7を通じて指示した選択情報
等を入力情報として、所定規則等、例えばニューラルネ
ットワーク等の重み付けを行う。従って、アクセス履歴
管理部9は前記自動情報検出部8からの情報請求があっ
た場合には、対応するアクセス情報を返送し、自動情報
検出部8でのタイムリーな学習処理を可能とするもので
ある。
[0031] The access history management unit 9 stores the interests of the user,
This system manages the storage, storage, and updating of the system usage status so that the type of hobbies and the like can be weighted. The selection information or the like specified by the user through the information selection unit 7 is used as input information. Weighting is applied to rules, for example, neural networks. Therefore, the access history management unit 9 returns the corresponding access information when there is an information request from the automatic information detection unit 8 and enables the automatic information detection unit 8 to perform timely learning processing. It is.

【0032】情報データベース10は、利用者に提供さ
れる情報の詳細情報を格納するデータベースであり、前
記自動情報検出部8からの情報請求があった場合には、
請求された情報を出力し、利用者の興味、趣味にあった
学習処理に寄与するものである。
The information database 10 is a database for storing detailed information of information provided to the user, and when an information request is received from the automatic information detection unit 8,
The requested information is output and contributes to a learning process suited to the user's interests and hobbies.

【0033】情報提示部11は、自動情報検出部8の学
習処理結果に基づいて選択された情報を使用者に提供す
る出力手段であり、例えば最適なテレビ映像を提供する
テレビ画面、最適な音楽やラジオ局の放送を提供するラ
ジオ、希望する最適情報をインターネットから表示した
り、所定エキスパートシステムの出力を表示したりする
コンピュータ画面等である。
The information presenting section 11 is an output means for providing the user with the information selected based on the result of the learning process of the automatic information detecting section 8, such as a television screen for providing an optimal television image, an optimal music, And a radio that provides broadcasting of radio stations, a computer screen that displays desired optimal information from the Internet, and displays an output of a predetermined expert system.

【0034】以上の構成において利用者が情報選択部7
を用いて各種情報にアクセスを行うと、基本的にその選
択情報(どんな情報を必要としているか)が自動情報検
出部8へ送られ、自動情報検出部8では利用者の興味に
あった情報検出のためにアクセス履歴管理部9と情報デ
ータベース10から最適な情報を抽出して学習処理を行
う。その学習処理結果である抽出情報を情報提示部11
に転送することで利用者のアクセスに対する応答として
情報提示部11に抽出情報内容が表示されることとな
る。
In the above configuration, the user selects the information selecting unit 7
When the user accesses various kinds of information by using the information, basically, the selected information (what information is needed) is sent to the automatic information detection unit 8, and the automatic information detection unit 8 detects the information that interests the user. For this purpose, a learning process is performed by extracting optimal information from the access history management unit 9 and the information database 10. The extracted information, which is the result of the learning process, is transmitted to the information presentation unit 11
, The extracted information content is displayed on the information presenting unit 11 as a response to the user's access.

【0035】情報提示部11に提示された応答情報内容
を見た利用者は、その情報に満足できなかったり、異な
るものを希望する場合等には再び情報選択部7へのアク
セスを繰り返すことで最適情報を選択することができ
る。また、情報データベース10に直接アクセスして直
接情報提示部11にデータを出力する事も考えられる。
そして、上記した情報選択部7での利用者の振る舞い
は、アクセス履歴管理部9へと送られ利用者情報として
蓄積、管理されている。
The user who sees the contents of the response information presented to the information presenting section 11 can repeat the access to the information selecting section 7 again when the user is not satisfied with the information or desires a different one. Optimal information can be selected. It is also conceivable to directly access the information database 10 and directly output data to the information presenting unit 11.
Then, the behavior of the user in the above-mentioned information selecting unit 7 is sent to the access history managing unit 9 and is accumulated and managed as user information.

【0036】従来の技術では、図1におけるアクセス履
歴管理部9や自動情報検出部8において最適情報を抽出
する手段として自動学習手段を用いる場合、入力情報を
全て同一レベルの入力情報として扱っていたが、本実施
形態では入力情報を分類分けし、その分類分けした各入
力情報間の相互関係を考慮いた上でその相互関係に基づ
き入力層を複数段構成とし、上層側の入力層から順に処
理を進め、その処理結果を関係する下層側の入力層に関
係付けて処理を進めることで不必要な処理を減らした上
で、従来の並列処理と同様の処理結果を得ることが可能
となった。そして、この構成によれば自動情報検出装置
のシステムサイズを抑えながら、より詳細な情報の検出
を行うという相反した効果を導き出すことが可能とな
る。
In the prior art, when the access history management unit 9 and the automatic information detection unit 8 shown in FIG. 1 use an automatic learning unit as a unit for extracting optimum information, all input information is treated as input information of the same level. However, in the present embodiment, the input information is classified and, after considering the mutual relation between the classified input information, the input layers are configured in a plurality of stages based on the mutual relation, and the input layers are processed in order from the upper input layer. By reducing the unnecessary processing by associating the processing result with the related lower input layer and performing the processing, it is possible to obtain the same processing result as the conventional parallel processing. . According to this configuration, it is possible to derive the contradictory effect of detecting more detailed information while suppressing the system size of the automatic information detection device.

【0037】以下、自動情報検出装置における最適情報
を抽出する自動学習手段に上記入力層を複数段構成とし
下層の入力層をカテゴリ毎に分類することがより効果的
と考えられるニューラルネットワークNNを適用する場
合について説明する。例として入力数が同じ場合の従来
手法(図2)と、本実施形態の手法(図3)の結合素子
数を簡単に計算する。計算にあたっては各中間層の基本
素子数は入力層と同じとし、中間層の段数は入力素子数
の半分とした。尚、図3において情報処理方向上流側
(上位)のNNの入力層41、中間層51、出力層61
は、そえぞれ下付文字1を付し、情報処理方向下流側
(下位)のNNにはそえぞれ下付文字2を付して区別し
ている。
In the following, a neural network NN, which is considered to be more effective if the input layer is configured in a plurality of stages and the lower input layer is classified for each category, is applied to the automatic learning means for extracting optimal information in the automatic information detection device. Will be described. As an example, the number of coupling elements in the conventional method (FIG. 2) when the number of inputs is the same and the method of this embodiment (FIG. 3) are simply calculated. In the calculation, the number of basic elements in each intermediate layer was the same as that of the input layer, and the number of stages in the intermediate layer was half the number of input elements. In FIG. 3, the input layer 4 1 , the intermediate layer 5 1 , and the output layer 6 1 of the NN on the upstream side (upper side) in the information processing direction are respectively provided with a subscript 1 and the downstream side (in the information processing direction). The lower NNs are distinguished by subscripts 2 respectively.

【0038】図2に示す従来手法での結合素子数は、 (入力数×各中間層の基本素子数×中間層の段数)=
(22×22×11)=5324 である。一方、図3に示す本実施形態での結合素子数
は、 (6×6×3+4×4×2+4×4×2+4×4×2+
4×4×2=236) となる。以上の計算では各出力層6、61、62にかかる
結合素子数を省いたものであるが、5324と236と
ではその差は歴然としており、更にNNを大きくする程
その結合素子数の差は際立ってくる。
The number of coupling elements in the conventional method shown in FIG. 2 is (the number of inputs × the number of basic elements of each intermediate layer × the number of stages of the intermediate layer) =
(22 × 22 × 11) = 5324. On the other hand, the number of coupling elements in the present embodiment shown in FIG. 3 is (6 × 6 × 3 + 4 × 4 × 2 + 4 × 4 × 2 + 4 × 4 × 2 +
4 × 4 × 2 = 236). Above but in the calculation is that omitting the number of binding elements according to the output layer 6,6 1, 6 2, the difference between 5324 and 236 have been evident, the coupling element number as further increasing the NN The difference stands out.

【0039】次に、テレビ放送による番組情報を情報源
とし、どの番組が利用者に一番好まれるかを自動検出す
る場合を図4〜図6を参照して説明する。ここでは、入
力情報として番組情報中の番組の特徴を表す単語を用い
る。例えばドラマであればサスペンス、ラブストーリ
ー、コメディー、音楽番組であればアーティスト名等で
ある。
Next, a case in which program information obtained by television broadcasting is used as an information source to automatically detect which program is most preferred by a user will be described with reference to FIGS. Here, words representing the features of the program in the program information are used as the input information. For example, a drama is a suspense, a love story, a comedy, and a music program is an artist name.

【0040】図6に示すように、入力層42は番組カテ
ゴリー別(ドラマ、音楽、バラエティー、報道等)にN
Nを分割して番組情報C(例えば、ドラマであればサス
ペンス、ラブストーリー、コメディー、音楽番組であれ
ばアーティスト名等)を入力する。入力層42をこの構
成にすることにより、上層のNNでは日時情報Tから前
記番組カテゴリに対する興味情報61を学習し、さらに
番組カテゴリ毎の詳細情報を番組情報Cによって学習す
ることとなる。この構成だと、入力情報Xは従来手法と
同じでも、小さなNNの加算になるので、従来と比べて
結合素子数がかなり減少し、それに伴い学習時間もかな
り減少する。
[0040] As shown in FIG. 6, the input layer 4 2 is another program category (drama, music, variety, news, etc.) to N
N is divided to input program information C (for example, suspense, love story, comedy for a drama, artist name for a music program, etc.). By the input layer 4 2 in this configuration, you learn interesting information 6 1 from the top of the NN in time information T for the program category, so that the further to learn more about each program category by the program information C. With this configuration, even if the input information X is the same as the conventional method, a small NN is added, so that the number of coupling elements is significantly reduced as compared with the conventional method, and the learning time is considerably reduced accordingly.

【0041】ここで、テレビのリモコン(情報選択部
7)からの選択信号を用いて情報データベース10から
番組情報C、図示しない時計から日時情報Tを取得し
て、自動情報検出部8が学習を行う場合、従来手法では
図4に示されるとおり、番組情報Cと日時情報Tの相互
関係を考慮せず同じ入力層4に入力し中間層5において
全てのノードを相互に結合する処理がなされる。
Here, the program information C from the information database 10 and the date and time information T from the clock (not shown) are acquired by using a selection signal from the remote controller (information selection unit 7) of the television, and the automatic information detection unit 8 performs learning. In the conventional method, as shown in FIG. 4, in the conventional method, a process of inputting to the same input layer 4 without considering the mutual relationship between the program information C and the date and time information T and connecting all nodes to each other in the intermediate layer 5 is performed. .

【0042】一方、本実施形態の場合、図5に示すよう
に入力層41に日時情報Tを入力し、それよってドラ
マ、バラエティー等の番組のカテゴリに分類する学習を
行い、下位にあたる入力層42にそのカテゴリに対応す
る形で番組情報Cを入力している。上記のように本実施
形態では、上位の入力層41が常に下位の入力層42のカ
テゴリ分類を行うことで、図4に示す1層の入力層4で
並列処理するのと変わらない情報検出力を可能としてい
る。
On the other hand, in this embodiment, enter the date and time information T to the input layer 4 1, as shown in FIG. 5, it thus drama, learns to classify the program category of the variety such as lower falls input layer are entering program information C 4 2 in the form that corresponds to that category. Information in this embodiment as described above, by the input layer 4 1 higher always perform lower input layer 4 second category classification, unchanged as parallel processing in the input layer 4 of single layer shown in FIG. 4 Detectability is possible.

【0043】図6は図5をより具体的に示したものであ
り、図6を参照しながら上記したカテゴリ分類処理の流
れを説明する。上層側は日時情報Tを入力として持ち、
ここから下層側のカテゴリ分類された番組情報C(入力
層42)に対するカテゴリ毎の興味度(出力層61)を抽
出し、この興味度(出力層61)が入力層42の入力のそ
れぞれのカテゴリに重みとしてかけている。
FIG. 6 shows FIG. 5 more specifically, and the flow of the above-described category classification processing will be described with reference to FIG. The upper layer has date and time information T as input,
Here extracts a category for each of the interest degree of the lower layer side of the category classified program information C (the input layer 4 2) (output layer 61), input the degree of interest (output layer 61) of the input layer 4 2 Each category is multiplied as a weight.

【0044】このように従来の入力層が一層の場合には
中間層5で影響を及ぼしあっていたそれぞれの入力情報
の関係を、本実施形態では下層側ではカテゴリ毎の小さ
なNN毎に入力を行い、上層側では入力情報から下層側
NNのそれぞれのカテゴリに対する興味度を抽出する形
態とすることで代替処理を実現している。
As described above, when the conventional input layer has one layer, the relationship between the respective pieces of input information which had an influence on the intermediate layer 5 is described. In the present embodiment, the input is performed for each small NN for each category in the lower layer. On the upper layer side, the substitution process is realized by extracting the degree of interest for each category of the lower layer NN from the input information.

【0045】上記処理は、図6に示すように、番組のカ
テゴリー(ドラマ、音楽、報道、バラエティー等)と番
組情報(ドラマであればサスペンス、ラブストーリー
等、音楽であれば歌手名等)との関係が判れば、つま
り、入力情報Xの分類が可能で、包含関係が明確であれ
ば本実施形態に係る入力層の多段構成は自動情報検出装
置のコンパクト化、処理効率の向上等に有効である。
As shown in FIG. 6, the above-mentioned processing includes the program category (drama, music, news, variety, etc.) and program information (suspense, love story, etc. for drama, singer name for music, etc.) If the relationship is known, that is, if the input information X can be classified and the inclusion relationship is clear, the multi-stage configuration of the input layer according to the present embodiment is effective for downsizing the automatic information detection device, improving the processing efficiency, and the like. It is.

【0046】次に、利用者が21時にチャンネルを選択
する場合を例として説明する。図7は、X年Y月Z日2
1時以降の番組表の一部であり、実際には100以上の
チャンネルの番組表が電子プログラムガイドEPG(El
ectric Program Guide)として送信されている。
Next, a case where the user selects a channel at 21:00 will be described as an example. FIG. 7 shows Y / Z / X2
It is a part of the program guide after 1:00, and in fact, the program guide of 100 or more channels is stored in the electronic program guide EPG (El
ectric Program Guide).

【0047】まず、利用者が見たい番組を決定している
場合は、チャンネル番号を入力する事でチャンネルを選
択すれば良い。この場合は自動検出システムは起動され
ない。また、ユーザーがチャンネル番号順にチャンネル
を選択したい場合は図8に示すチャンネルUPダウンボ
タンにより、チャンネルを順に送っていけばよく、この
場合も自動検出システムは起動されない。
First, when the user has determined a program to be watched, a channel may be selected by inputting a channel number. In this case, the automatic detection system is not activated. If the user wants to select channels in the order of channel numbers, the channels may be sent in sequence using the channel UP button shown in FIG. 8, and in this case, the automatic detection system is not activated.

【0048】一方、ユーザーが見たい番組を決定してい
ない状態でユーザー自身が興味を持っている順に番組を
選択していきたい場合は本実施形態に係る自動検出シス
テムを起動する。実際のシステムでは情報選択部7に該
当するリモコン12のおまかせボタン13等によって自
動検出システムを起動することになる(図8)。
On the other hand, when the user does not determine the program to be viewed and wants to select programs in the order in which the user is interested, the automatic detection system according to the present embodiment is started. In an actual system, the automatic detection system is activated by the automatic button 13 or the like of the remote controller 12 corresponding to the information selection unit 7 (FIG. 8).

【0049】システムが起動された場合、自動情報検出
部8の入力層41には日時曜日の情報、入力層42にはカ
テゴリ(この場合は番組)毎の詳細情報が情報データベ
ース10から入力される。ここでは、Y月、Z日、W曜
日、21時の4つのパラメータを入力層41として与
え、入力層42には各番組毎の詳細情報を与える。
[0049] When the system is started, the input to the input layer 4 1 of the automatic information detection unit 8 is date and time information day, from the input layer 4 to the 2 categories details information database 10 for each (this program if) Is done. Here, Y month, Z date, W day of the week, given four parameters of 21:00 as the input layer 4 1, the input layer 4 2 give detailed information for each program.

【0050】入力層42には、番組表のチャンネルCH
1の歌番組の興味度を検出する場合、番組の種類(カウ
ントダウン、MTV、バラエティー等)、出演者の名前
が入力情報として与えられる。同様にチャンネルCH2
のドラマの場合は、ドラマのジャンル(ラブストーリ
ー、サスペンス、コメディー等)、出演者の名前が、ま
たチャンネルCH3のニュースの場合はニュースの種類
(定時、特集(軍事、政治、経済、スポーツ等))の入
力情報がそれぞれ入力層42に与えられる。このよう
に、カテゴリ毎に入力層42への入力情報は異なる。
[0050] The input layer 4 2, the channel CH of the program guide
When detecting the degree of interest of one song program, the type of the program (countdown, MTV, variety, etc.) and the names of the performers are given as input information. Similarly, channel CH2
For drama, the drama genre (love story, suspense, comedy, etc.) and the name of the performer. For channel CH3 news, the type of news (regular, special (military, politics, economy, sports, etc.) input information) is applied to the input layer 4 2, respectively. Thus, input information to the input layer 4 2 for each category are different.

【0051】まず、入力層41への入力情報から、Y
月、Z日、W曜日、21時にユーザーが興味を持つであ
ろうジャンルへの重み(0〜1の実数値)が出力層61
に出力される。ここでは例えば、歌番組(0.87)、
ドラマ(0.43)、ニュース(0.10)、映画
(0.36)、アニメ(0.15)の出力が得られると
する。ここでのNN内部の動作は、入力層41の入力情
報に各結合素子3の重み付けした値を基本素子2で出力
値に変換する演算である。
[0051] First of all, from the input information to the input layer 4 1, Y
On the output layer 6 1 , the weight (real value of 0 to 1 ) of the genre that the user may be interested in at 21:00 on the month, Z day, W day, and 21:00
Is output to Here, for example, a song program (0.87),
It is assumed that drama (0.43), news (0.10), movie (0.36), and animation (0.15) are obtained. NN internal operation here is an operation for converting the output value weighted value of each coupling element 3 to the input information of the input layer 4 of the basic element 2.

【0052】次に、各チャンネルCHの番組情報Cが入
力層42に与えられ、チャンネルCH1の場合には、番
組の種類の情報としてカウントダウン、出演者の入力と
してKiroro、松たか子が与えられ、チャンネルC
H2の場合には番組の種類の情報としてサスペンス、出
演者の入力として木村拓也、中山美穂が与えられる。同
一ジャンルの番組(チャンネルCH1、チャンネルCH
5)でも、番組情報が違えば、違う出力が現れる。
Next, the program information C of each channel CH is applied to the input layer 4 2, in the case of channel CH1 is countdown as the type of information of the program, Kiroro as input performers, Takako Matsu given, Channel C
In the case of H2, suspense is given as program type information, and Takuya Kimura and Miho Nakayama are given as input of performers. Programs of the same genre (channel CH1, channel CH
5) Even if the program information is different, a different output appears.

【0053】そして、入力層42に与えられる各情報の
入力値は1であるが、これに前記した入力層41から抽
出した重みをかけたものが入力層42への実際の各カテ
ゴリ毎の入力値になる。本実施形態では前記したように
チャンネルCH1、チャンネルCH5の入力層42に与
えられる情報の入力値は0.87(歌番組)となり、チ
ャンネルCH2の場合は0.43(ドラマ)となる。こ
のようにシステムの入力層42への情報の入力を、全て
の番組に対して行い、各番組に対するユーザーの興味度
2を抽出する。ここでのNN内部の動作も出力61を演
算した場合と同様に、入力層42の入力情報に各結合素
子3の重み付けした値を基本素子2で出力値に変換する
演算である。
The input value of each piece of information given to the input layer 4 2 is 1, and a value obtained by multiplying the input value by the weight extracted from the input layer 4 1 is the actual value of each category to the input layer 4 2 . It becomes the input value for each. The input value information in the present embodiment applied to the input layer 4 second channel CH1, channel CH5 as described above is 0.87 (Popular Song Program), and in the case of channel CH2 and 0.43 (drama). Thus the input data to an input layer 4 2 of the system, carried out for all the programs, and extracts the user's interest degree 6 2 for each program. Similar to the case of calculating the NN work output 6 of the internal herein is an operation for converting the output value weighted value of each coupling element 3 to the input information of the input layer 4 2 in the basic element 2.

【0054】次に、利用者のチャンネル選択のために、
上記出力62に基づいて情報提示部11に出力する番組
を興味度の順に並べ替えが行われる。興味度が同一の場
合は、カテゴリ毎の興味度である出力61の値が大きい
方を上位とする。カテゴリも同一の場合にはチャンネル
CH順に並べる事とする。また、現在(選択前に)表示
しているチャンネルCHは、興味度順に並べたチャンネ
ルCHとは別に最下位の番組の次に置く。これにより、
現在選択しているチャンネルCH15は興味度リストに
2回(選択順位98、101)現れる(図9参照)。
Next, for the user to select a channel,
Sort program to be output to the information presentation unit 11 based on the output 6 2 in order of the degree of interest is performed. If the degree of interest is the same, the higher the larger the value of the output 6 1, which is the degree of interest for each of the categories. If the categories are the same, they are arranged in channel CH order. The currently displayed channel CH (before selection) is placed next to the lowest-order program, separately from the channel CHs arranged in order of interest. This allows
The currently selected channel CH15 appears twice in the interest list (selection order 98, 101) (see FIG. 9).

【0055】以上より、ユーザーが自動番組検索を望ん
でいる場合は、まずおまかせボタン13を押し、次にア
ップダウンキー14を操作する事で、興味度の高い順に
番組を選択して、情報表示部11に表示することが出来
る。この操作の際、アップキー、ダウンキー14どちら
かを降順、昇順ボタンに割り振る事となる。尚、アップ
キー、ダウンキー14のどちらでも押し始めた方を降順
ボタン、逆を昇順ボタンとする事も考えられる。つま
り、押し始めは必ず1番興味のある番組が表示され、同
じボタンを繰り返し押す事で2番目、3番目の興味度を
持つ番組を降順選択する事になる。また、反対側のボタ
ンを押す事で昇順に番組選択する事になる。このよう
な、アップダウンキー14でのオペレーションには、1
つ進んで1つ戻ったら必ず同じところに戻る、という暗
黙の了解があるため、現在選択されているチャンネルC
Hを最下位に置く必要がある。
As described above, when the user wants to search for an automatic program, the user first presses the automatic selection button 13 and then operates the up / down key 14 to select programs in descending order of interest and display information. It can be displayed on the section 11. In this operation, either the up key or the down key 14 is assigned to the descending order or the ascending order button. It is also conceivable that the one that starts pressing either the up key or the down key 14 is a descending order button, and the reverse is the ascending order button. In other words, at the beginning of pressing, the most interesting program is always displayed, and by repeatedly pressing the same button, the programs having the second and third interest levels are selected in descending order. By pressing the button on the opposite side, the programs are selected in ascending order. Such an operation with the up / down key 14 includes 1
There is an implicit understanding that if you go forward and return one, you will always return to the same place, so the currently selected channel C
H must be at the bottom.

【0056】また、チャンネル選択においては最上位を
選択している時に昇順ボタンを押すと最下位チャンネル
が表示され、最下位を選択している時に降順ボタンを押
すと最上位チャンネルが表示される事が期待されるの
で、図9のような構成になる。
In channel selection, when the highest order is selected, pressing the ascending button displays the lowest order channel, and pressing the descending button when selecting the lowest order displays the highest order channel. Is expected, the configuration is as shown in FIG.

【0057】次に自動情報検出システムの学習手順を示
す。学習システムは基本的に、番組の視聴時間の長さに
比例した学習を行う。本システムでは、教師あり学習を
行う。教師あり学習とは、NNが学習を行う際にその学
習が正しいのか間違っているのかを与える学習である。
システムは一定時間毎に学習を行い、選択されている番
組に対しては正解であるという教師信号を与え、その他
の全ての番組には不正解であるという教師信号を与え
る。これは、抑制方向の学習が無いと、時間が経てば経
つほど番組の学習が累積されてくるため、最悪の場合全
ての番組の興味度が1を示す事になりかねない、という
事態を回避するための措置である。
Next, a learning procedure of the automatic information detection system will be described. The learning system basically performs learning in proportion to the length of the program viewing time. In this system, supervised learning is performed. The supervised learning is learning that gives whether the learning is correct or wrong when the NN performs learning.
The system performs learning at regular time intervals, and gives a teacher signal indicating that the selected program is correct, and gives a teacher signal indicating that all other programs are incorrect. This avoids the situation that, if there is no learning in the suppression direction, the learning of the program is accumulated as the time elapses, and in the worst case, the interest levels of all the programs may be 1. It is a measure to do.

【0058】従来システムでは中間層で全ての基本素子
2が相互に結合しているため、非常に学習にも時間がか
かるのに対して、本システムでは入力層42以下はジャ
ンル別のNNを構成するという、NN小規模システムが
複数ある構成であるため、従来の入力層4が1層の構成
に比べて、結合素子数が大幅に減少する。このため、学
習速度が大幅に上昇する。
[0058] Since all of the basic element 2 in the intermediate layer in the conventional system are attached to one another, for very even time learning according to the input layer 4 2 or less in the present system the genre NN Since there are a plurality of NN small-scale systems, the number of coupling elements is greatly reduced as compared with a conventional input layer 4 having a single-layer structure. Therefore, the learning speed is greatly increased.

【0059】また、この学習の際の学習係数(学習がど
の程度NNに反映されるかを示す係数)を正解の場合
と、不正解の場合で変更する必要がある。なぜなら、1
00チャンネルあるうち視聴チャンネルは1つだからで
ある。学習係数を同じにすると、選択チャンネルと、非
選択チャンネルの結合素子3の重みの格差が広がってし
まうことが容易に予想される。このため、非常に振動的
な(興味のあるチャンネルが毎回変わる)システムにな
りかねない。この学習係数を、正解時と不正解時で変更
する点に関しては従来システムでも十分に対応する事が
出来る。しかし、この学習係数の変更と言う点に関して
は、入力層42以下はジャンル別のNNを構成するとい
う、NN小規模システムが複数ある本システムの構成が
大きなメリットを生む。それは、ジャンル毎に学習係数
を変更することが出来るからである。
Further, it is necessary to change the learning coefficient (coefficient indicating how much the learning is reflected on the NN) in this learning depending on whether the answer is correct or incorrect. Because 1
This is because there is one viewing channel out of 00 channels. When the learning coefficients are the same, it is easily expected that the weight difference between the coupling element 3 of the selected channel and the non-selected channel will be widened. This can result in a very oscillatory system (the channel of interest changes every time). The conventional system can sufficiently cope with changing the learning coefficient between the correct answer and the incorrect answer. However, in terms of say change of the learning coefficient is input layer 4 2 or less that constitutes a genre NN, NN small system of a plurality of the system configuration produces significant benefits. This is because the learning coefficient can be changed for each genre.

【0060】本実施形態のように情報自動検出システム
をテレビ放送に適用する場合、従来構成で学習システム
を構築すると、歌番組と、ニュースの学習係数を変更す
る事が出来ない。歌番組等の流行を追いかける嗜好の変
化を持つタイプの放送と、ニュース番組、ドラマ等のあ
る程度固定された嗜好を持つタイプの放送に対する学習
係数を同じにすると、流行に合わせた学習係数を採用す
ると、ニュース番組等の固定された嗜好を持つ番組まで
時々刻々と興味度が変更されてしまう。また、逆に嗜好
がある程度固定されている番組に合わせた学習係数を採
用すると、歌番組のように流行を追いかけなければなら
ない番組に対する興味度も固定されてしまい、ユーザー
の好みを反映できない結果となってしまう。このように
従来方法を適用すると、全ての番組に対応できないシス
テムとなってしまう恐れがある。本実施形態では、ジャ
ンル別に小規模なNNグループを構成しているためジャ
ンル毎の学習係数の変更が極めて容易である。このた
め、全てのジャンルに対して最適な学習を行う事が出来
る。
When the automatic information detection system is applied to television broadcasting as in the present embodiment, if a learning system is constructed with a conventional configuration, it is impossible to change the learning coefficient of a song program and news. If the same learning coefficient is used for a type of broadcast that has a change in taste following a trend such as a song program, and a type of broadcast that has a fixed degree of taste such as a news program or drama, a learning coefficient that matches the trend can be adopted. In addition, the degree of interest is changed every moment to a program having a fixed preference, such as a news program. Conversely, if a learning coefficient is adopted that matches a program whose taste is fixed to some extent, the degree of interest in a program that must follow the trend, such as a song program, will also be fixed, and the result will not be able to reflect user preferences. turn into. As described above, when the conventional method is applied, there is a possibility that the system may not be compatible with all programs. In the present embodiment, since a small NN group is formed for each genre, it is extremely easy to change the learning coefficient for each genre. Therefore, optimal learning can be performed for all genres.

【0061】また、入力情報に関する点では、従来形式
では入力情報の追加は容易でも削除は容易ではないのに
対し、本実施形態ではカテゴリ毎の入力情報管理を行う
事で入力情報の追加だけでなく、入力情報の削除も容易
である。また、入力情報削除の際にNNに及ぼす影響
も、本実施形態の方が小さい。
In addition, with respect to input information, input information can be easily added but not easily deleted in the conventional format. On the other hand, in the present embodiment, input information management is performed for each category so that only input information can be added. Therefore, it is easy to delete the input information. Also, the present embodiment has a smaller effect on the NN when deleting the input information.

【0062】〔第2の実施形態〕前記第1の実施形態で
は、上層、下層のNNともに入力層41、42、中間層5
1、52、出力層61、62を設ける構成であったが、いず
れかの入力層に係る学習処理を別処理工程で前処理する
事によりNN処理の効率化を図ることが可能であるので
第2の実施形態として以下説明する。尚、上記説明した
構成と同一部分には同一符号を付して説明を省略すると
ともに、前記第1の実施形態との相違部分を中心に以下
説明する。
[Second Embodiment] In the first embodiment, the input layers 4 1 and 4 2 and the intermediate layer 5 are used for both the upper and lower NNs.
1 , 5 2 , and the output layers 6 1 , 6 2 are provided. However, the efficiency of the NN processing can be improved by pre-processing the learning processing relating to any one of the input layers in a separate processing step. Therefore, a second embodiment will be described below. The same components as those described above are denoted by the same reference numerals and the description thereof will be omitted, and the following description will focus on the differences from the first embodiment.

【0063】本実施形態に係るニューラルネットワーク
NNの構成を図10、11に示す。図10は、図3の入
力層41から出力層61までを前処理して入力層43とし
て入力層42と結合したものであり、また、図11は、
図10の前処理入力層43を中間層52と出力層62間に
設けたものである。
FIGS. 10 and 11 show the configuration of the neural network NN according to the present embodiment. Figure 10 is one attached to the input layer 4 2 as an input layer 4 1 input layer 4 3 preprocess up output layer 6 1 from FIG. 3, and FIG. 11,
Preprocessing the input layer 4 3 of FIG. 10 are those provided between the intermediate layer 5 2 and the output layer 6 2.

【0064】前記前処理手段は、例えば利用者の毎週の
利用状況を所定規則により表にまとめたものをアクセス
履歴管理部9に記憶した利用状況表(図16参照)を用
いる。例えば、特定の曜日日時に、どのジャンルの番組
が利用者の興味をひくのかを該利用状況表から取りだし
て入力層43として自動情報検出部8に出力するもので
ある。
The pre-processing means uses, for example, a usage status table (see FIG. 16) in which the access status management section 9 stores the usage status of the user every week in a table according to a predetermined rule. For example, on a particular day time, in which any genre program outputs the automatic information detecting unit 8 whether the interest of the user as the input layer 4 3 is taken out from the usage table.

【0065】例えば、図12で示す放送日時15(入力
層41)の入力からジャンルの興味度の抽出部分17
(出力層61)までを上記利用状況表を用いる事で代用
する。これにより、情報検出システムはジャンル17
b、番組情報18(入力層42)、中間層19(52)、
及び興味度20(出力層62)から構成されることにな
る(図13)。このように前処理を使用する事で、入力
情報の幅を狭める事無く、自動情報検出部8での学習及
び、情報抽出処理にかかる負担を軽くする事が出来る。
For example, from the input of the broadcast date and time 15 (input layer 4 1 ) shown in FIG.
(Output layer 6 1 ) is substituted by using the above-mentioned usage status table. As a result, the information detection system becomes genre 17
b, program information 18 (input layer 4 2 ), intermediate layer 19 (5 2 ),
And the degree of interest 20 (output layer 6 2 ) (FIG. 13). By using the pre-processing in this way, it is possible to reduce the load on the learning and information extraction processing in the automatic information detection unit 8 without reducing the width of the input information.

【0066】次に、前処理の必要なシステムとして、ど
のチャンネルCHがその時間帯に一番選択されている
か、という情報を処理するシステムを考える。このよう
なシステムは、NNで処理する事が非常に難しいものの
一つである。入力情報としてチャンネルCHの番号を一
つの入力情報として与えても意味が無い。つまり、図1
1の場合だと、チャンネルCHという入力に1〜100
の数値が入力される事となる。この構成だと、隣り合っ
たチャンネルが関連性のある番組を放送している場合は
有効だが、そうでない場合はこの構成に意味は無い。な
ぜなら、1〜100の値を入力する場合に、例えば50
と49や51の区別をつけることは非常に難しいからで
ある。
Next, as a system requiring preprocessing, a system for processing information as to which channel CH is most selected in the time zone is considered. Such a system is one of the very difficult to process by NN. It is meaningless to give the channel CH number as one input information as the input information. That is, FIG.
In the case of 1, 1 to 100
Will be entered. This configuration is effective when adjacent channels are broadcasting related programs, but otherwise it is meaningless. Because, when inputting a value of 1 to 100, for example, 50
This is because it is very difficult to distinguish between 49 and 51.

【0067】そこで、チャンネルCHの入力を有効にす
るためには、図15に示すようにチャンネル数分の入力
を用意する必要がある。しかしながら、この構成にすれ
ばチャンネルCHを入力データとする事に意味があるが
システムが大きくなりすぎて現実的ではない。
Therefore, in order to make the input of the channel CH valid, it is necessary to prepare inputs for the number of channels as shown in FIG. However, with this configuration, it is meaningful to use the channel CH as input data, but this is not practical because the system becomes too large.

【0068】そこで、このような場合にチャンネル選択
情報を前処理して入力層43として与えれば、システム
サイズ的にも情報量の増加と言う点に関しても有効な処
理が可能となる。
[0068] Therefore, if you give the channel selection information as the input layer 4 3 pretreated in such a case, it is possible to be effective treatment also in terms say increasing amount of information in system size basis.

【0069】図16に示すように、曜日、時間の表を作
成し、そこでチャンネルCHの選択頻度CFをアクセス
履歴管理部9に記憶、管理する。そして、その入力を入
力43として図17、図18のように与える。これらの
ニューラルネットワークシステムでは、入力層41の日
時情報から、下位の層に対する重み付けとなる出力層6
1を得る。この出力層61は、下位の入力層42の各番組
ジャンルに対する重みとなっている。そこで、入力層4
1の入力情報を用いてチャンネル視聴頻度CFを抽出
し、入力43とする。図17では、この入力43を出力層
1とかけあわせてジャンルに対する重みとし、図18
では、この入力43を最終出力にかけることでチャンネ
ル情報を反映させる。以上の構成により、最適なシステ
ムを作り上げる事が可能となり、システムを大規模に構
築せずに多量の情報を扱う事が可能となる。
As shown in FIG. 16, a table of the day of the week and time is created, and the access frequency management unit 9 stores and manages the selection frequency CF of the channel CH there. Then, 17 that input as the input 4 3, given as Figure 18. These neural network system, the date and time information of the input layer 4 1, and the weighting for the lower layer output layer 6
Get one . The output layer 61 has a weight for each program genre in the lower of the input layer 4 2. Therefore, input layer 4
Extracting channel viewing frequency CF using one of the input information, the input 4 3. In Figure 17, the weight for genre multiplying the input 4 3 and the output layer 61, FIG. 18
In reflects the channel information by applying the input 4 3 to the final output. With the above configuration, an optimal system can be created, and a large amount of information can be handled without constructing the system on a large scale.

【0070】〔第3の実施形態〕上記第1の実施形態で
は、図3に示すように、入力層41の入力から出力層61
が決定され、その出力層61の結果が下層の入力層42
それぞれに結び付いて出力層62を出力していた。本第
3の実施形態ではよりニューラルネットワークに使用す
るメモリサイズを少なくすると共に、処理スピードの向
上を行うために下層の中間層42を選択的に実施する構
成とする。
[0070] In the Third Embodiment The first embodiment, as shown in FIG. 3, the input layer 4 of the input from the output layer 6 1
There are determined, the output layer 61 results had an output layer 6 2 linked to each of the lower input layer 4 2. While reducing the memory size to be used for more neural networks in the third embodiment, and selectively carried to the intermediate layer 4 2 of the lower layer in order to perform the improvement of the processing speed.

【0071】実施しない下層の中間層42の選択方法と
しては、該中間層42に接続する上層の出力層61の各基
本素子2からの入力に対する値が−定範囲に含まれるも
のを選出するものとし、該選出された基本素子2の下層
にあたる入力層42の入力を制限する。例えば、出力層
1の出力値が2値(0,1)であれば、出力値が0で
ある出力層61の基本素子2の下層にあたる入力層42
は入力を行わないといったように適用する。
[0071] The intermediate layer 4 2 selection method of the lower layer is not performed, the value for the input from each basic element 2 of the upper output layer 61 to be connected to the intermediate layer 4 2 - what is included in the constant range shall elect to limit the lower falls input of the input layer 4 2 of the basic element 2 issued該選. For example, if the output value of the output layer 61 are binary (0,1), the input layer 4 2 corresponding to the lower base element 2 of the output layer 61 output value is 0 as such does not perform an input Apply to

【0072】上記選択手段を適用したものを図19に示
す。放送日時15の入力から、ジャンル17に対する興
味度を導き出し、その下層の番組情報18の入力層に
は、各ジャンル17に対応した番組情報18が入力され
るが、ここで、放送日時15からの出力となるジャンル
17に対応する基本素子値のうち一番値の大きいものが
選出される。そして後段の入力をそのジャンル17に対
応した番組情報18のみに限定する。ジャンル17で選
択されたジャンルがドラマならその下の番組情報18に
はラブストーリー、サスペンス、コメディー等が入力情
報として用いられ、ジャンル17で選択されたジャンル
が報道なら経済、軍事、政治等が番組情報18の入力情
報として用いられる。この放送日時15と、番組情報1
8の2段の入力層から該当番組の興味度20が出力され
る。またこの場合、興味度20は図12よりも一層上段
で出力が得られることとなる。
FIG. 19 shows an example in which the above selection means is applied. The degree of interest in the genre 17 is derived from the input of the broadcast date and time 15, and the program information 18 corresponding to each genre 17 is input to an input layer of the program information 18 below the genre 17. The element having the largest value is selected from the basic element values corresponding to the genre 17 to be output. Then, the input at the subsequent stage is limited to only the program information 18 corresponding to the genre 17. If the genre selected in genre 17 is a drama, the program information 18 below will use love stories, suspense, comedy, etc. as input information. If the genre selected in genre 17 is news, economics, military, politics, etc. The information 18 is used as input information. The broadcast date and time 15 and the program information 1
8, the degree of interest 20 of the program is output from the two-stage input layer. Further, in this case, the degree of interest 20 is obtained in an upper stage than in FIG.

【0073】以上説明したように本実施形態によると、
情報検出の際の計算量を減らす事が出来る。このため、
短時間の情報検出が可能となる。上記手法は下位の層に
行くにつれ、入力情報が多くなるようなピラミッド型の
構成の場合特に有効である(図20)。
As described above, according to the present embodiment,
The amount of calculation at the time of information detection can be reduced. For this reason,
It is possible to detect information for a short time. The above method is particularly effective in the case of a pyramid type configuration in which input information increases as going to lower layers (FIG. 20).

【0074】図21に示す構成においては、入力層であ
る放送日時15からのジャンル17の出力値(出力
1)を2値(1,0)とするもので、ジャンル17に
よっては入力値が全て0となる場合がある。この時、出
力の値が0であるジャンルに関しては後段の計算を非実
行とすることで探索領域の限定をしている。
In the configuration shown in FIG. 21, the output value (output 6 1 ) of the genre 17 from the broadcast date and time 15 which is the input layer is binary (1, 0). All may be 0. At this time, with respect to the genre having an output value of 0, the search in the subsequent stage is not executed, thereby limiting the search area.

【0075】図21では、ジャンル17に対応した出力
1が下位の層のドラマに対してだけ1となりその他の
ジャンルは全て0となつている。これにより、2層目以
下はドラマに対しての演算だけを行えば良い。図21の
例では入力が2階層しかないためメリットはあまり感じ
られないが、次にこれを3層入力としてた例を図22に
示す。
In FIG. 21, the output 61 corresponding to the genre 17 is 1 only for the drama of the lower layer, and all other genres are 0. As a result, only the operation for the drama needs to be performed for the second and lower layers. In the example of FIG. 21, there is little merit because the input has only two layers, but FIG. 22 shows an example in which the input is a three-layer input.

【0076】図22では図21と同様に入力層41に日
時情報15を与えることで、出力層61であるジャンル
17を得る。ここでは、ジャンル17は、下位層の入力
が音楽に対してだけ1となりその他のジャンルは全て0
となっている。これにより、2層目以下は音楽にたいし
ての演算だけを行う。
[0076] By giving the date and time information 15 in FIG. 22 in FIG. 21 similarly to the input layer 4 1, to obtain an output layer 6 1 a is genre 17. Here, in the genre 17, the input of the lower layer is 1 only for music, and all other genres are 0.
It has become. As a result, only the operation for music is performed in the second and lower layers.

【0077】次に出力層61と入力層42からサブカテゴ
リーに対する出力層62を得る。図22では音楽番組の
サブカテゴリにあたる「MTV」に対応する出力だけが
1となり、その他の出力は0となっている。このよう
に、3層構成にすると探索領域の限定によってかなりの
計算量の削減になる事が判る。これは入力段数が多くな
ればなるほど有効なシステムとなる(図20)。
[0077] Then obtain an output layer 6 2 for the sub-category from the output layer 61 to the input layer 4 2. In FIG. 22, only the output corresponding to “MTV” which corresponds to the sub-category of the music program is “1”, and the other outputs are “0”. In this way, it can be seen that the three-layer configuration significantly reduces the amount of calculation due to the limitation of the search area. This becomes a more effective system as the number of input stages increases (FIG. 20).

【0078】尚、上記第2、第3の実施形態はそれぞれ
第1の実施形態を改良したものであるが、上記第2の実
施形態に第3の実施形態を適用することで更に速い情報
検出が可能となるので、以下に第4の実施形態として説
明する。
Although the second and third embodiments are improvements of the first embodiment, faster information detection can be achieved by applying the third embodiment to the second embodiment. This will be described below as a fourth embodiment.

【0079】〔第4の実施形態〕情報検索時に探索領域
を限定する事を特徴としたシステムに入力情報に前処理
を行う事を特徴としたシステムを組み合わせた情報検索
システムを、テレビ放送の番組検出に適用した場合を図
23、24を参照しつつ説明する。尚、前記した構成と
同一部分には同一符号を付して説明を省略する。図2
3、24に示すように、放送日時情報15から下位のジ
ャンル17に対応した出力層61を2値で出力する。
[Fourth Embodiment] An information retrieval system combining a system characterized by limiting a search area at the time of information retrieval with a system characterized by performing preprocessing on input information is provided by a TV broadcast program. The case where the present invention is applied to detection will be described with reference to FIGS. Note that the same parts as those described above are denoted by the same reference numerals, and description thereof will be omitted. FIG.
As shown in 3, 24, and outputs an output layer 61 corresponding the broadcasting date and time information 15 to the lower genre 17 in binary.

【0080】さらに、放送日時情報15からチャンネル
視聴頻度CFを抽出し、前記出力61に対して重み付け
を行う。例えば、月曜日、21時、チャンネルの歌番組
の興味度を調べる場合は、日時情報15からそのチャン
ネルの視聴頻度CFを取り出す。図16の例を使えば、
月曜日、21時、チャンネルCH1の視聴頻度CFは
0.15である。このチャンネルCH1の視聴頻度CF
を、ジャンル17(出力層61)の基本素子2に対して
重み付けしたり(図23参照)、最終出力に対して重み
付けしたり(図24)する事で、視聴頻度CFの情報を
抽出結果に反映させることが出来る。これにより従来の
システムに比べて、入力層の数が多ければ多いほど計算
量が少なくなるシステムに、NNの苦手とするチャンネ
ル情報を反映させる事が可能となる。
[0080] In addition, it extracts the channel viewing frequency CF from the broadcast date and time information 15, performs weighting to the output 61. For example, at 21:00 on Monday, when examining the degree of interest in the song program of the channel, the viewing frequency CF of the channel is extracted from the date and time information 15. Using the example in FIG.
At 21:00 on Monday, the viewing frequency CF of the channel CH1 is 0.15. Viewing frequency CF of this channel CH1
Is weighted to the basic element 2 of the genre 17 (output layer 6 1 ) (see FIG. 23) or to the final output (FIG. 24) to extract the information of the viewing frequency CF. Can be reflected in This makes it possible to reflect the channel information that NN is not good at in a system in which the number of input layers increases as the number of input layers decreases as compared with the conventional system.

【0081】なお、前記の実施形態では本発明の好適例
を説明したが、本発明はこれに限定されないことはもち
ろんである。
Although the preferred embodiment of the present invention has been described in the above embodiment, it is needless to say that the present invention is not limited to this.

【0082】[0082]

【発明の効果】以上説明した通り、本発明では、入力情
報量の増加に伴う演算量の増加を抑えて学習、演算処理
に必要となる資源、処理時間を軽減する。このため、学
習効率と情報抽出精度という相反する2つの問題を満足
させる事が可能となった。
As described above, according to the present invention, the increase in the amount of calculation accompanying the increase in the amount of input information is suppressed, and the resources and processing time required for learning and calculation processing are reduced. For this reason, it has become possible to satisfy two conflicting problems of learning efficiency and information extraction accuracy.

【0083】請求項1の発明によれば、各入力層では、
入力情報を一律に全ての可能性について学習するのでは
なく、分類入力情報を用いて学習するために、処理時間
は短く、処理に必要とするメモリやCPU等のハードウ
ェア資源も大規模なものを必要としない。そして、前段
の学習結果を後段の入力層に反映させることで、最終的
には全ての入力情報を考慮した結果をも得ることができ
る。よって、テレビ受像機やセットトップボックス等の
能力的に制限された機器においても、詳細な学習や自動
検出を素早く行う事が可能となった。
According to the first aspect of the present invention, in each input layer,
The processing time is short and the hardware resources such as memory and CPU required for the processing are large because the input information is not learned uniformly for all possibilities but is learned using the classification input information. Do not need. Then, by reflecting the learning result of the former stage on the input layer of the latter stage, it is possible to finally obtain a result in which all input information is considered. Therefore, detailed learning and automatic detection can be quickly performed even for devices with limited capabilities such as a television receiver and a set-top box.

【0084】請求項2の発明によれば、同一入力層に独
立関係にある分類入力情報を有することで、入力情報の
相互関係がないものに関してはその入力情報間での不必
要な学習処理を削除することができ、処理時間の短縮と
小さなハードウェア資源での処理を可能とできる。この
独立関係にある分類入力情報は同一入力層で別個独立し
て並列処理することで前段の出力結果を反映させなが
ら、不必要な学習処理を削除することが可能となる。こ
の場合も分類入力情報ごとの処理であるために、検索処
理時間は短く、メモリやCPU等のハードウェア資源へ
の負担も少なくできる。
According to the second aspect of the present invention, since the same input layer has classified input information having an independent relationship, unnecessary learning processing between the input information can be performed for input information having no mutual relation. It can be deleted, and processing time can be reduced and processing can be performed with small hardware resources. The classified input information having an independent relationship is processed independently and in parallel in the same input layer, so that unnecessary learning processing can be deleted while reflecting the output result of the preceding stage. Also in this case, since the processing is performed for each classification input information, the search processing time is short, and the load on hardware resources such as a memory and a CPU can be reduced.

【0085】請求項3の発明によれば、前記学習手段を
ニューラルネットワークで構築することで、入力情報の
履歴から利用者が興味を持つ情報を効率的に学習でき
る。
According to the third aspect of the present invention, by constructing the learning means with a neural network, it is possible to efficiently learn information that the user is interested in from the history of the input information.

【0086】請求項4の発明によれば、いずれかの入力
層におけるニューラルネットワーク処理に替えて、ニュ
ーラルネットワーク以外の処理結果を該入力層の処理結
果とするため、ニューラルネットワークによる学習に適
さない処理を他の手段に代替することで処理効率を向上
できる。
According to the fourth aspect of the present invention, a processing result other than the neural network is used as the processing result of the input layer in place of the neural network processing in any of the input layers. The processing efficiency can be improved by substituting for other means.

【0087】請求項5の発明によれば、前段入力層の出
力情報に基づき、後段入力層のいずれかの分類入力情報
の処理を制限することにより、明らかに不必要な学習処
理を削除することができ、メモリやCPU等のハードウ
ェア資源への負担も少なくできる。
According to the fifth aspect of the present invention, the processing of one of the classification input information in the subsequent input layer is restricted based on the output information in the previous input layer, thereby eliminating the apparently unnecessary learning processing. And load on hardware resources such as a memory and a CPU can be reduced.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態に係る自動情報検出装
置のブロック図である。
FIG. 1 is a block diagram of an automatic information detection device according to a first embodiment of the present invention.

【図2】従来の基本的なニューラルネットワーク処理の
作用的説明図である。
FIG. 2 is an operational explanatory diagram of a conventional basic neural network process.

【図3】本発明の第1の実施形態に係る自動情報検出装
置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 3 is an operational explanatory diagram of neural network processing of the automatic information detection device according to the first embodiment of the present invention.

【図4】図2の処理をテレビ番組検出に適用した場合の
説明図である。
FIG. 4 is an explanatory diagram in the case where the processing in FIG. 2 is applied to television program detection.

【図5】図3の処理をテレビ番組検出に適用した場合の
説明図である。
FIG. 5 is an explanatory diagram in the case where the processing in FIG. 3 is applied to television program detection.

【図6】図3の処理をテレビ番組検出に適用した場合の
説明図である。
FIG. 6 is an explanatory diagram in the case where the processing of FIG. 3 is applied to television program detection.

【図7】本発明の第1の実施形態に係るチャンネル構成
の説明図である。
FIG. 7 is an explanatory diagram of a channel configuration according to the first embodiment of the present invention.

【図8】本発明の第1の実施形態に係るリモコン装置の
説明図である。
FIG. 8 is an explanatory diagram of a remote control device according to the first embodiment of the present invention.

【図9】本発明の第1の実施形態に係るチャンネル配置
の説明図である。
FIG. 9 is an explanatory diagram of a channel arrangement according to the first embodiment of the present invention.

【図10】本発明の第2の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 10 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the second embodiment of the present invention.

【図11】本発明の第2の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 11 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the second embodiment of the present invention.

【図12】本発明の第1の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 12 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the first embodiment of the present invention.

【図13】図12に前処理を行ったニューラルネットワ
ーク処理の作用的説明図である。
FIG. 13 is an operational explanatory diagram of the neural network processing in which the preprocessing is performed in FIG.

【図14】図12の上段入力層に1のチャンネルセルC
Hを設けたニューラルネットワーク処理の作用的説明図
である。
FIG. 14 shows one channel cell C in the upper input layer of FIG.
It is an operational explanatory view of the neural network processing provided with H.

【図15】図12の上段入力層に100のチャンネルセ
ルを設けたニューラルネットワーク処理の作用的説明図
である。ニューラルネットワークのセルを示す図である
FIG. 15 is an operational explanatory diagram of a neural network process in which 100 channel cells are provided in the upper input layer of FIG. 12; FIG. 2 is a diagram showing cells of a neural network.

【図16】チャンネルCHの選択頻度管理表の一部説明
図である。
FIG. 16 is a partial explanatory diagram of a channel CH selection frequency management table.

【図17】本発明の第2の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 17 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the second embodiment of the present invention.

【図18】本発明の第2の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 18 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the second embodiment of the present invention.

【図19】本発明の第3の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 19 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the third embodiment of the present invention.

【図20】本発明の第3の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の概略作用的説明図
である。
FIG. 20 is a schematic functional explanatory diagram of a neural network process of the automatic information detection device according to the third embodiment of the present invention.

【図21】本発明の第3の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 21 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the third embodiment of the present invention.

【図22】本発明の第3の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 22 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the third embodiment of the present invention.

【図23】本発明の第4の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 23 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the fourth embodiment of the present invention.

【図24】本発明の第4の実施形態に係る自動情報検出
装置のニューラルネットワーク処理の作用的説明図であ
る。
FIG. 24 is an operational explanatory diagram of the neural network processing of the automatic information detection device according to the fourth embodiment of the present invention.

【図25】ニューラルネットワークのセルの作用説明図
である。
FIG. 25 is an explanatory diagram of an operation of a cell of the neural network.

【図26】3層パーセプトロンの説明図である。FIG. 26 is an explanatory diagram of a three-layer perceptron.

【図27】従来のニューラルネットワークの概略構成の
説明図である。
FIG. 27 is an explanatory diagram of a schematic configuration of a conventional neural network.

【符号の説明】[Explanation of symbols]

1 セル 2 基本素子 3 結合素子 4、41、42 入力層 5、51、52 中間層 6、61、62 出力層 7 情報選択部 8 自動情報検出部 9 アクセス履歴管理部 10 情報データベース 11 情報提示部 CH チャンネル CF 視聴頻度 43 視聴頻度入力 NN ニューラルネットワーク1 cell 2 basic elements 3 coupled device 4,4 1, 4 2 input layers 5 1, 5 2 intermediate layer 6,6 1, 6 2 output layer 7 information selecting unit 8 automatic information detector 9 access history management unit 10 Information database 11 Information presentation section CH channel CF Viewing frequency 4 3 Viewing frequency input NN neural network

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 入力情報の履歴から利用者が興味を持つ
情報を学習する学習手段と、前記学習手段による学習内
容に基づいて利用者の関心に合致する情報を自動的に提
供する情報提供手段とを備えた自動情報検出装置におい
て、 前記学習手段は、入力情報を分類した分類入力情報のう
ち、1又は2以上の分類入力情報を入力する入力層を学
習処理手順方向に複数段に設け、前段入力層の学習結果
を後段入力層に入力することを特徴とする自動情報検出
装置。
1. A learning means for learning information of interest to a user from a history of input information, and an information providing means for automatically providing information matching the user's interest based on the learning content of the learning means. In the automatic information detection device comprising: the learning means, provided in a plurality of stages in the learning processing procedure direction, an input layer for inputting one or two or more classification input information among the classification input information obtained by classifying the input information, An automatic information detecting apparatus, wherein a learning result of a preceding input layer is input to a succeeding input layer.
【請求項2】 前記同一入力層に、独立関係にある分類
入力情報を有することを特徴とする請求項1に記載の自
動情報検出装置。
2. The automatic information detecting apparatus according to claim 1, wherein the same input layer has classified input information in an independent relationship.
【請求項3】 前記学習手段は、ニューラルネットワー
クで構築することを特徴とする請求項1又は2に記載の
自動情報検出装置。
3. The automatic information detecting apparatus according to claim 1, wherein said learning means is constructed by a neural network.
【請求項4】 いずれかの入力層におけるニューラルネ
ットワーク処理に替えて、ニューラルネットワーク以外
の処理結果を該入力層の処理結果とすることを特徴とし
た請求項3に記載の自動情報検出装置。
4. The automatic information detecting apparatus according to claim 3, wherein a processing result other than the neural network is used as a processing result of the input layer, instead of the neural network processing in one of the input layers.
【請求項5】 前段入力層の出力情報に基づき、後段入
力層のいずれかの分類入力情報の処理を制限することを
特徴とする請求項1ないし4のいずれか1項に記載の自
動情報検出装置。
5. The automatic information detection according to claim 1, wherein the processing of one of the classification input information of the subsequent input layer is restricted based on the output information of the previous input layer. apparatus.
JP11108319A 1999-04-15 1999-04-15 Automatic information detection device Pending JP2000298662A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11108319A JP2000298662A (en) 1999-04-15 1999-04-15 Automatic information detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11108319A JP2000298662A (en) 1999-04-15 1999-04-15 Automatic information detection device

Publications (1)

Publication Number Publication Date
JP2000298662A true JP2000298662A (en) 2000-10-24

Family

ID=14481708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11108319A Pending JP2000298662A (en) 1999-04-15 1999-04-15 Automatic information detection device

Country Status (1)

Country Link
JP (1) JP2000298662A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7281054B2 (en) 2001-07-13 2007-10-09 Fujitsu Limited Contents distribution method, contents information processing device, and computer product
JP2016177344A (en) * 2015-03-18 2016-10-06 株式会社東芝 Arithmetic unit, arithmetic method and program
JP2018128942A (en) * 2017-02-10 2018-08-16 ヤフー株式会社 Analyzing apparatus, analyzing method, and program
JP2021152941A (en) * 2020-11-16 2021-09-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Object recommendation method, neural network and training method thereof, device and medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7281054B2 (en) 2001-07-13 2007-10-09 Fujitsu Limited Contents distribution method, contents information processing device, and computer product
JP2016177344A (en) * 2015-03-18 2016-10-06 株式会社東芝 Arithmetic unit, arithmetic method and program
JP2018128942A (en) * 2017-02-10 2018-08-16 ヤフー株式会社 Analyzing apparatus, analyzing method, and program
JP2021152941A (en) * 2020-11-16 2021-09-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Object recommendation method, neural network and training method thereof, device and medium
JP7194233B2 (en) 2020-11-16 2022-12-21 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド Object recommendation method, neural network and its training method, device and medium
US12314852B2 (en) 2020-11-16 2025-05-27 Baidu Online Network Technology (Beijing) Co., Ltd. Method for recommending object, computing device and computer-readable storage medium

Similar Documents

Publication Publication Date Title
CN115238126B (en) Search result reordering method, device, equipment and computer storage medium
US8181201B2 (en) Enhanced electronic program guides
US8220023B2 (en) Method for content presentation
JP4505418B2 (en) Program recommendation device, program recommendation method of program recommendation device, and program
JP3502114B2 (en) Information service system
JP4769889B2 (en) PROGRAM SELECTION DEVICE AND PROGRAM SELECTION DEVICE CONTROL METHOD
Alspector et al. Feature-based and clique-based user models for movie selection: A comparative study
US20200193288A1 (en) System and Method for Content Discovery
CN110781391A (en) Information recommendation method, device, equipment and storage medium
US20040073918A1 (en) Automatic user profiling
JP4370850B2 (en) Information processing apparatus and method, program, and recording medium
JP2005056361A (en) Information processing apparatus and method, program, and recording medium
US20090138326A1 (en) Apparatus and method for updating user profile
Lee et al. Personalizing information appliances: a multi-agent framework for TV programme recommendations
Lin et al. Personalized channel recommendation on live streaming platforms
JP2009289092A (en) Information processor, recommendation method, program and recording medium
CN116186309A (en) Graph Convolutional Network Recommendation Method Based on Interaction Interest Graph Fused with User Intent
Vali-Sarafoglou et al. TopMoviePicks: a personalized movie recommendation system based on TOPSIS
JP2000298662A (en) Automatic information detection device
Liu Aggregating contextual information for multi-criteria online music recommendations
Dai et al. Dynamic personalized TV recommendation system
CN118193763A (en) Intelligent data screening method and system based on deep learning
Andrade et al. Novel hybrid approach to content recommendation based on predicted profiles
Hölbling et al. PersonalTV: A TV recommendation system using program metadata for content filtering
JP2002215669A (en) Information service system and broadcast receiving system