[go: up one dir, main page]

JP2000165447A - Method and system for scheduling data packets in a telecommunications network - Google Patents

Method and system for scheduling data packets in a telecommunications network

Info

Publication number
JP2000165447A
JP2000165447A JP36600798A JP36600798A JP2000165447A JP 2000165447 A JP2000165447 A JP 2000165447A JP 36600798 A JP36600798 A JP 36600798A JP 36600798 A JP36600798 A JP 36600798A JP 2000165447 A JP2000165447 A JP 2000165447A
Authority
JP
Japan
Prior art keywords
buffer means
session
packets
packet
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP36600798A
Other languages
Japanese (ja)
Other versions
JP4104756B2 (en
JP2000165447A5 (en
Inventor
Andrew Hayes David
アンドリュー ヘイス デビッド
Peter Ramuseuiku Michael
ペーター ラムセウィク マイケル
Leyster Henry Andrew Rashiran
レイスター ヘンリー アンドリュー ラシラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ericsson Australia Pty Ltd
RMIT University
Melbourne Institute of Technology
Original Assignee
Royal Melbourne Institute of Technology Ltd
Ericsson Australia Pty Ltd
Melbourne Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Royal Melbourne Institute of Technology Ltd, Ericsson Australia Pty Ltd, Melbourne Institute of Technology filed Critical Royal Melbourne Institute of Technology Ltd
Priority to JP36600798A priority Critical patent/JP4104756B2/en
Publication of JP2000165447A publication Critical patent/JP2000165447A/en
Publication of JP2000165447A5 publication Critical patent/JP2000165447A5/ja
Application granted granted Critical
Publication of JP4104756B2 publication Critical patent/JP4104756B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Data Exchanges In Wide-Area Networks (AREA)

Abstract

(57)【要約】 【課題】 サービス提供者および網運用者が自身のQo
S対象を選択して構成化することができるようにする。 【解決手段】 電気通信網にあってデータパケットスケ
ジュール作成するにあたり、1つあるいはそれ以上のセ
ッションを表すデータパケットを受けて記憶する第1の
バッファ手段(16)を網のノード(2)に設け、輻輳
時に第1のバッファ手段(16)のオーバーフローを回
避するためにトリガー状態の開始でデータパケットをバ
ッファリングする第2のバッファ手段(18)を設け
る。
(57) [Summary] [Problem] A service provider and a network operator have their own Qo.
It is possible to select and configure an S target. SOLUTION: In preparing a data packet schedule in a telecommunications network, a first buffer means (16) for receiving and storing data packets representing one or more sessions is provided at a node (2) of the network. In order to avoid overflow of the first buffer means (16) during congestion, a second buffer means (18) for buffering data packets at the start of a trigger state is provided.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は電気通信網にあって
パケットをスケジュール作成する方法およびシステムに
関し、より詳細には電気通信網を運用するサービス提供
者によって設定される所定品位のサービス目的に合致し
ようとしている電気通信網にあってデータパケットをス
ケジュール作成する方法およびシステムに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method and system for scheduling packets in a telecommunications network, and more particularly, to meet predetermined quality service objectives set by a service provider operating the telecommunications network. A method and system for scheduling data packets in a telecommunications network being sought.

【0002】[0002]

【従来の技術】パケット交換網上で時間にクリティカル
なトラヒックが増々増加している。このトラヒックは電
話のような旧来の実時間サービス並びにビデオ・オン・
デマンド、マルチキャストビデオおよびバーチャルリア
リティアピリケーションを含んだ新たなサービスを包含
している。
BACKGROUND OF THE INVENTION Time-critical traffic on packet-switched networks is increasing. This traffic is traditional real-time services such as telephone, as well as video-on-
It includes new services including demand, multicast video and virtual reality applications.

【0003】また、ウェブブラウズおよびファイル転送
のような、遅延がサービス品位のユーザ知覚になお影響
してしまうような多くの、時間にクリティカルでないア
プリケーションも存在している。
There are also many non-time-critical applications, such as web browsing and file transfer, where delays still affect user perception of service quality.

【0004】そのようなアプリケーションが成功を収め
るには、網はパケット遅延やパケットロスの割合のよう
な幾つかの品位基準に関して十分なサービス品位(Qo
S)をユーザセッションに対して与える必要がある。Q
oSに関する保証は効果的な受入管理および実時間スケ
ジュール作成の組合せにより達成されることができる。
For such applications to be successful, the network must have a sufficient quality of service (Qo) with respect to some quality criteria, such as packet delay and packet loss rates.
S) must be given to the user session. Q
Assurance for oS can be achieved through a combination of effective admission control and real-time scheduling.

【0005】しかしながら、上で述べたサービスは典型
的には比較的に突発性のトラヒックプロファイルを有
し、セッション設定時、顧客がある網を介してデータを
伝送することを欲する場合に、通常顧客はそれら顧客の
トラヒックプロファイルを正確に描出することができな
い。従って、ピーク帯域幅容認制御を用いない限り、過
渡的な輻輳の時間が網に生じてしまうことは避けられな
い。
However, the services described above typically have a relatively abrupt traffic profile, and when a session is set up, if the customer wants to transmit data over a certain network, the Cannot accurately depict the traffic profile of those customers. Therefore, unless peak bandwidth admission control is used, it is inevitable that transient congestion time will occur in the network.

【0006】A.VarmaおよびD.Stiliad
is著「非同期転送モード網用公平待機アルゴリズムの
ハードウェアによる構成」IEEE通信マガジン、第3
5巻、第54〜68頁、1997年12月で述べられて
いるように、トラヒックスケジュール作成システムは次
のように要約されるある望ましい特性を備えなければな
らない。 (a)システムは個々のデータトラヒックストリームを
個別に取り扱うことができる必要がある。 (b)システムは各トラヒックストリームに対する局部
遅延保証を与えることができなければならず、従って暗
黙のエンド・ツー・エンド遅延保証を与えることができ
る必要がある。 (c)利用可能な帯域幅の効果的な使用を行なう必要が
ある。 (d)高速リンクの要請に合致するようにハードウェア
による実現化を可能にするためシステムは簡単に構成さ
れる必要がある。 (e)広範囲のリンク速度に渡って極めて多数のセッシ
ョンでシステムがうまく働くことができなければならな
い点でシステムはスケーラブルである必要がある。 (f)システムはトラヒックストリーム間で公平で合理
的に帯域幅を割り当てることができる必要がある。
A. Varma and D.M. Stilad
is, "Hardware Configuration of Fair Waiting Algorithm for Asynchronous Transfer Mode Network", IEEE Communication Magazine, No. 3.
5, pages 54-68, December 1997, a traffic scheduling system must have certain desirable characteristics summarized as follows. (A) The system needs to be able to handle individual data traffic streams individually. (B) The system must be able to provide local delay guarantees for each traffic stream, and therefore be able to provide implicit end-to-end delay guarantees. (C) There is a need to make effective use of the available bandwidth. (D) The system must be simple to implement in hardware to meet the demands of high-speed links. (E) The system needs to be scalable in that the system must be able to work with a very large number of sessions over a wide range of link speeds. (F) The system needs to be able to fairly and reasonably allocate bandwidth between traffic streams.

【0007】多くの以前および現行のパケットスケジュ
ール作成システムは上述の要件(そのうちの2つを以下
に簡単に説明する)に合致させようとして設計されてい
る。第1のシステムは、実現が簡単な先入れ先出し(F
IFO)システムである。FIFOシステムにおいて、
各パケット(または、セルリレー(cell−rela
y)ベースのプロトコルではセル)は各パケットまたは
セルの到達の順序で発信送出バッファに格納される。送
出バッファのサイズはパケットが特定のリンクで受ける
最大遅延を決定する。パケットが到達する時にバッファ
が一杯であれば、パケットは単純に廃棄される。FIF
Oシステムは実現するのは簡単であるが、流れを切り分
けて個々のトラヒックストリームを別々に処理すること
が不可能でありかつ全てのユーザセッションに渡って必
ずしも公平ではないところから、実時間アプリケーショ
ンのサポートにとっては好ましいものではない。この公
平性を欠く点は、単一の大容積トラヒックストリームが
リンクまたは網の全ての他のセッションに対して大きく
サービスを低下させるほど大きなトラヒック容量を発生
する可能性があるので、重大である。
[0007] Many previous and current packet scheduling systems are designed to meet the above requirements, two of which are briefly described below. The first system is a first-in first-out (F
(IFO) system. In a FIFO system,
Each packet (or cell-rela)
y) In the base protocol, cells) are stored in the outgoing transmission buffer in the order of arrival of each packet or cell. The size of the outgoing buffer determines the maximum delay that a packet will experience on a particular link. If the buffer is full when the packet arrives, the packet is simply dropped. FIF
The O system is simple to implement, but because it is not possible to isolate flows and process individual traffic streams separately and is not always fair over all user sessions, real-time application Not good for support. This lack of fairness is significant because a single large volume traffic stream can generate so much traffic capacity that it severely degrades service to all other sessions of the link or network.

【0008】第2のスケジュール作成システムは公平待
機(FQ:Fair Queueing)システムであ
り、これは「公平待機アルゴリズムの解析およびシミュ
レーション」SIGCOMM’89、1989議事録と
題する文献でA.Dermers、S.Keshavお
よびS.Shenkerによって紹介されたものであ
る。公平待機システムにおいては、利用可能な帯域幅は
全ての競合セッション間で等しく共用され、従って中位
の帯域幅要求を有するユーザが他のユーザの極端な要求
のために不利益を受けることはない。帯域幅を平等にす
る結果として、これらの公平待機手法は、典型的に、公
平な共用分よりも小さな帯域幅要求を有するセッション
に対しては満足なQoSを与える。公平待機の概念は、
その後、加重公平待機(WFQ)と呼ばれる加重帯域幅
割当てを可能にするように増強され、これはトラヒック
ストリームによるより一般的な利用可能な帯域幅に対す
るアクセスを可能にする。このWFQ手法において、ス
ケジューラは各セッションに種々の重みを割り当てるこ
とができる。この手法は、本来のWFQシステムの公平
性、実施の際の細部あるいはスケーラビリティ上の僅か
な認められた欠陥の改善を目的とした広範囲の改変手法
をもたらした。
A second scheduling system is a fair queuing (FQ) system, which is described in the document entitled "Analysis and Simulation of Fair Waiting Algorithm", SIGCOMM'89, 1989 Minutes. Dermers, S.M. Keshav and S.M. It was introduced by Shenker. In a fair standby system, the available bandwidth is shared equally among all contention sessions, so that users with moderate bandwidth requirements do not suffer from the extreme demands of other users . As a result of the bandwidth equalization, these fairness waiting techniques typically provide satisfactory QoS for sessions that have less bandwidth requirements than fair share. The concept of fair waiting is
It is then augmented to allow for a weighted bandwidth allocation called Weighted Fair Wait (WFQ), which allows access to the more general available bandwidth by traffic streams. In this WFQ approach, the scheduler can assign different weights to each session. This approach has resulted in a wide range of modification approaches aimed at improving the fairness of the original WFQ system, minor details of implementation, or minor perceived scalability deficiencies.

【0009】しかしながら、これらの変形例の全てにお
いて、公平性はスケジュール作成規律の本質的な目標で
あり、公平性の考えは極めて小さな時間スケールで与え
られる。公平性および小さな時間スケールに焦点を絞る
ことは、公平性がユーザが知覚するQoSの実際の度合
ではなく、網によって直接測定され得る量からユーザQ
oSを推測する試みであるという事実を曖昧にする傾向
がある。ユーザは他のユーザが受けたサービスの品位
も、他のユーザが受けた帯域幅も知ることが不可能であ
る。従って、公平性はユーザが知覚するQoSの直接的
な度合とはならない。公平性は、網が輻輳の期間の間ど
のようにしてリソースを割り当てるかについての度合、
すなわちユーザが直接知覚できない度合である。公平性
は良好なサービス品位の保証ではない;例えば、所定の
リンクが2つの実時間セッションを搬送しており、これ
ら両方はリンク容量の半分を僅かに越えるデータ速度の
バーストを同時に持つ場合がある。もし各セッションが
利用可能な帯域幅の半分を割り当てられるとすれば、両
セッションのためのキューは、パケットがそれらの遅延
制限内で到達しなくなるまで長くなり続ける。従って、
有効スループットはゼロであり、両ユーザは不満を感じ
る。しかしながら、システムは単独の顧客に必要なQo
Sを与える豊富な容量を備えており、そうすることによ
り「公平な」場合に比べ他の顧客の満足度を低下させて
しまいかねない。
However, in all of these variations, fairness is an essential goal of scheduling discipline, and the idea of fairness is given on a very small time scale. Focusing on fairness and a small time scale means that fairness is not the actual degree of QoS perceived by the user, but rather from the amount that can be measured directly by the network.
It tends to obscure the fact that it is an attempt to infer oS. It is impossible for a user to know the quality of service received by other users or the bandwidth received by other users. Therefore, fairness is not a direct measure of QoS perceived by the user. Fairness is a measure of how the network allocates resources during periods of congestion,
That is, the degree to which the user cannot directly perceive. Fairness is not a guarantee of good service quality; for example, a given link may carry two real-time sessions, both of which may simultaneously have bursts of data rate slightly more than half the link capacity . If each session is allocated half of the available bandwidth, the queue for both sessions will continue to grow until packets no longer reach within their delay limits. Therefore,
The effective throughput is zero and both users are dissatisfied. However, the system has the required Qo for a single customer.
It has plenty of capacity to provide S, which can reduce the satisfaction of other customers compared to "fair" cases.

【0010】システムのロードが軽い時には、全てのセ
ッションのQoS要求を通常応じさせることが可能であ
る。しかしながら、輻輳の期間の間では、あるセッショ
ンあるいは全てのセッションはそれらのQoS要求に合
致しないサービスを受けることになる。従って、どのト
ラヒックストリームがロス、遅延のいずれかあるいは両
方についての品位低下したサービスを受けるべきかを決
定する必要がある。これは実時間帯域幅スケジュール作
成のある個有の問題となる。
When the load of the system is light, it is possible to make the QoS requests of all sessions normally respond. However, during periods of congestion, some sessions or all sessions will receive services that do not meet their QoS requirements. Therefore, it is necessary to determine which traffic streams should receive degraded service for loss, delay, or both. This is a unique issue with real-time bandwidth scheduling.

【0011】QoSのより適切な度合は、セッションの
間あるいは輻輳状態の間の任意の時に不十分なサービス
を受けている顧客の割合いであると考えられる(これが
サービス提供者に対し不満を感じるかもしれない顧客の
数を反映するためである)。サービス提供者は、顧客が
知覚したQoSに関し顧客から受ける不満の数を最少に
したいと思うことであろう。従って、網およびそれが使
用するスケジュール作成システムは、顧客が気づかない
公平性に努力するよりも、気に入るようなサービスを受
けているユーザの数を最大にするように努めるべきであ
る。これは進行中のセッションに対するユーザQoSを
保護するために網加入管理(network admi
ssion controls)を実施する理由にアナ
ロガスである。しかしながら、このようなスケジュール
作成システムは、公平性をサービス提供者が重要と考え
る場合にはそれを行なう機構をも設ける必要がある。こ
のようにして、網における公平性の望ましいことの決定
が商売上の決定としてサービス提供者に残されてもよ
い。
[0011] A more appropriate degree of QoS is considered to be the percentage of customers who are under-served at any time during a session or during congestion (this may be frustrating for the service provider). To reflect the number of potential customers). The service provider will want to minimize the number of complaints received from customers regarding the perceived QoS. Therefore, the network and the scheduling system it uses should strive to maximize the number of users who are receiving the service they like rather than strive for fairness that the customer is unaware of. This can be done by network admin to protect user QoS for ongoing sessions.
The reason for implementing session controls is analogous. However, such a schedule creation system also needs to provide a mechanism to perform fairness when the service provider considers it important. In this way, a decision on the desire for fairness in the network may be left to the service provider as a decision on business.

【0012】FIFOおよびFQのようなスケジュール
作成システムは上述した目的を達成しない。FIFOシ
ステムにおいては、不品行のたった1つのセッションの
おかげで、全てのトラヒックストリームが、トラヒック
ストリーム当りの廃棄されるかあるいは過度に遅延され
たパケット群の一部によって測られた不十分なサービス
を受けてしまう。FQシステムにおいては、全てのトラ
ヒックストリームが同時にバーストする場合に、それら
は全て等しく処理され、全ては品位低下したサービスを
受ける。極めて小さな時間スケールでの公平性は、マル
チメディアデータ、MPEGビデオストリーミングおよ
びインターネットプロトコル(IP)電話のような実時
間サービスやファイル転送(FTP)およびウェブブラ
ウズ操作(HTTP)のような非実時間サービスのスケ
ジュール作成システムの性能の必ずしも良好な度合では
ないと考えられる。
[0012] Scheduling systems such as FIFO and FQ do not achieve the objectives described above. In FIFO systems, due to only one session of misbehavior, all traffic streams receive poor service as measured by a fraction of the group of dropped or excessively delayed packets per traffic stream. Would. In an FQ system, if all traffic streams burst at the same time, they are all treated equally and all receive degraded service. Fairness on a very small time scale is important for real-time services such as multimedia data, MPEG video streaming and Internet Protocol (IP) telephones and non-real-time services such as file transfer (FTP) and web browsing operations (HTTP). Is not necessarily a good measure of the performance of the schedule creation system.

【0013】[0013]

【発明が解決しようとする課題】本発明の目的はサービ
ス提供者および網運用者が彼等自身のQoS対象を選択
して実施できるようにするスケジュール作成インフラス
トラクチャを提供することである。過渡的な輻輳の管理
に対する新たなアプローチが本発明によって提供され
る。公平性を最大にすることによって良好な性能をもた
らしめることをねらうのではなく、本発明は、良好なサ
ービスを受けるユーザの数を最大にすることを含む、選
択可能なQoS手法を許すインフラストラクチャを提供
する。この目的は輻輳の期間の間での品位低下したサー
ビスの矢おもてに立つセッションを選択することによっ
て達成される。短い時間スケールでは、本発明のこの提
案は、大きく公平性を欠いて、僅かの数のセッションに
は極めて不十分なサービスを与えて残りのセッションに
対しては十分なリソースを与える。しかしながら、本発
明は、公平性が秒の程度の中位の時間スケールに渡って
得られるが、FQシステムよりも実質的に良好な総合サ
ービス品位をなお与えることができるパケットスケジュ
ール作成システムを提供する。本発明は公平性の伝統的
な概念から始まって優秀なサービスを受けるユーザの数
を全体のセッションに渡って最大にすることまでにわた
る範囲のQoS目標を支援する。これはFIFOあるい
はFQのような現存のスケジュール作成規律のどれによ
っても取り組まれていない。
It is an object of the present invention to provide a scheduling infrastructure that allows service providers and network operators to select and implement their own QoS targets. A new approach to managing transient congestion is provided by the present invention. Rather than aiming for good performance by maximizing fairness, the present invention provides an infrastructure that allows for selectable QoS approaches, including maximizing the number of good served users. Provide structure. This object is achieved by selecting a session that stands in the middle of a period of congestion, with a degraded service arrow. On a short time scale, this proposal of the present invention provides a great lack of fairness, providing very poor service for a small number of sessions and sufficient resources for the remaining sessions. However, the present invention provides a packet scheduling system that can obtain fairness over a medium time scale on the order of seconds, but still provide substantially better overall service quality than FQ systems. . The present invention supports QoS goals ranging from the traditional concept of fairness to maximizing the number of users receiving excellent service over the entire session. This is not addressed by any of the existing scheduling disciplines such as FIFO or FQ.

【0014】[0014]

【課題を解決するための手段】従って、本発明の第1の
特徴では、電気通信網にあってデータパケットをスケジ
ュール作成するシステムにおいて、1つあるいはそれ以
上のセッションを表すデータのパケットを受けて網のノ
ードで第1のバッファ手段に記憶するステップと、上記
第1のバッファ手段に記憶されたパケットの使用容量あ
るいは占有率を監視するステップと、上記第1のバッフ
ァ手段が輻輳期間の間でオーバーフローしないようにす
るためにトリガー条件(trigger condit
ion)の開始時に上記ノードでデータパケットを第2
のバッファ手段にバッファリングするステップを具備す
るシステムを提供する。
SUMMARY OF THE INVENTION Accordingly, in a first aspect of the present invention, a system for scheduling data packets in a telecommunications network receives a packet of data representing one or more sessions. A step of storing in a first buffer means at a node of the network, a step of monitoring a used capacity or an occupancy rate of a packet stored in the first buffer means; To avoid overflow, trigger condition (trigger condition)
at the start of the ION)
Buffering means in the buffer means.

【0015】トリガー条件は、第1のバッファ手段に記
憶されるデータ量の増加率が微分ベースのスレッショル
ドを越える時にデータパケットが第2のバッファ手段に
バッファリングされるような微分ベースのスレッショル
ドであってもよい。別態様として、トリガー条件は、第
1のバッファ手段へのデータパケットの到達による第1
のバッファ手段の最初のあるいはその後の容量スレッシ
ョルドの超過であってもよい。最初あるいはその後の容
量スレッショルドを越える第1のバッファ手段への最初
のデータパケットは第2のバッファ手段にバッファリン
グされてもよく、第1のデータパケットが属するセッシ
ョンのその後の到達するパケットがあればそれも第2の
バッファ手段にバッファリングされてもよい。
The trigger condition is a differential-based threshold such that a data packet is buffered in the second buffer means when the rate of increase in the amount of data stored in the first buffer means exceeds the differential-based threshold. You may. Alternatively, the trigger condition is a first condition caused by the arrival of the data packet in the first buffer means.
The first or subsequent capacity threshold of the buffer means may be exceeded. The first data packet to the first buffer means that exceeds the first or subsequent capacity threshold may be buffered in the second buffer means, if there is a subsequent arriving packet of the session to which the first data packet belongs. It may also be buffered in the second buffer means.

【0016】本発明は、第2の特徴では、電気通信網に
あってデータパケットをスケジュール作成するシステム
において、網のノードに配置され、1つあるいはそれ以
上のセッションを表すデータパケットを受ける第1のバ
ッファ手段と、網の上記ノードに配置された第2のバッ
ファ手段とを具備し、輻輳期間の間で上記第1のバッフ
ァ手段でオーバーフローしないようにするためにトリガ
ー条件の開始時にデータパケットが第2のバッファ手段
にバッファリングされるようにしたシステムを更に提供
する。
According to a second aspect of the present invention, in a system for scheduling data packets in a telecommunications network, a first system is located at a node of the network and receives a data packet representing one or more sessions. Buffer means and a second buffer means arranged at the node of the network, wherein the data packet is transmitted at the start of the trigger condition so as not to overflow in the first buffer means during a congestion period. There is further provided a system adapted to be buffered in a second buffer means.

【0017】本発明の第3の特徴によれば、電気通信サ
ービス提供者によって設定されるサービス基準の品位に
従って、電気通信網にあって1つあるいはそれ以上のセ
ッションを表すパケットをスケジュール作成するデータ
パケットスケジュール作成システムにおいて、上記電気
通信網で伝送される1つあるいはそれ以上のセッション
のデータパケットを受けて一時的に記憶する第1のバッ
ファ手段と、上記第1のバッファ手段が網の輻輳期間の
間にオーバーフローしないように、上記第1のバッファ
手段へのデータパケットの到達による上記第1のバッフ
ァ手段に設定されたトリガー条件の開始時にデータパケ
ットをバッファリングするようにした第2のバッファ手
段とを具備するデータパケットスケジュール作成システ
ムが提供される。
According to a third aspect of the invention, data for scheduling packets representing one or more sessions in a telecommunications network according to the quality of service criteria set by a telecommunications service provider. In a packet scheduling system, first buffer means for receiving and temporarily storing data packets of one or more sessions transmitted on the telecommunication network, and wherein the first buffer means comprises a network congestion period. A second buffer means for buffering a data packet at the start of a trigger condition set in the first buffer means due to the arrival of the data packet in the first buffer means so as not to overflow during And a data packet scheduling system comprising:

【0018】[0018]

【発明の実施の形態】以下、好適実施例が添付図面に関
連して例示的な目的だけで説明される。
BRIEF DESCRIPTION OF THE DRAWINGS The preferred embodiments are described below, by way of example only, with reference to the accompanying drawings, in which: FIG.

【0019】図1には、パケット交換網のような電気通
信網の一部を形成するパケット交換機すなわちノード2
が示されている。交換機2は多数の入力ポート4と、多
数の出力ポート6と、入力ポート4および出力ポート6
間に接続されている交換構造8を備えている。ルーチン
グプロセッサ10がリンク12を介して交換構造8に連
結されており、これは入力ポート4の任意の1つと出力
ポート6の任意の1つとの間でデータパケットのルーチ
ングすなわち交換を制御するように働く。交換機2に入
力されるデータパケットは入力リンク14で入力ポート
4の任意の1つにより受信される。次いで、データパケ
ットは交換構造8により出力ポート6の1つに交換され
る。次いで、データパケットは、出力ポート6のそれぞ
れの1つに配置された第1のバッファ手段16あるいは
第2のバッファ手段18のいずれかにより、どのように
してこれらの入力パケットが取り扱われるかに応じて
(これは後に説明される)受信される。廃棄されたパケ
ットは別として、全てのデータパケットは、リンク15
で第1のバッファ手段16のそれぞれから出力ポート6
を離れる。別態様として、第1のバッファ手段16およ
び第2のバッファ手段18は入力ポート4のそれぞれに
配置されてもよい。
FIG. 1 shows a packet switch or node 2 which forms part of a telecommunications network such as a packet switched network.
It is shown. The exchange 2 has a number of input ports 4, a number of output ports 6, an input port 4 and an output port 6.
It has a switching structure 8 connected between them. A routing processor 10 is coupled via link 12 to switching structure 8, which controls the routing or exchange of data packets between any one of the input ports 4 and any one of the output ports 6. work. Data packets entering switch 2 are received on any one of input ports 4 on input link 14. The data packet is then switched by the switching structure 8 to one of the output ports 6. The data packets are then processed according to how these input packets are handled by either the first buffer means 16 or the second buffer means 18 located at each one of the output ports 6. (This will be described later). Apart from the dropped packets, all data packets are
From each of the first buffer means 16 to the output port 6
Leave. Alternatively, the first buffer means 16 and the second buffer means 18 may be arranged at each of the input ports 4.

【0020】図2には、第1のバッファ手段16および
第2のバッファ手段18のより詳細な図が示されてい
る。システムあるいは網または網の交換機さえもが輻輳
していなければ、全てのセッション(1つのセッション
とは1つのアプリケーションに対して1人の特定のユー
ザに専用される一連のパケットである)は、好ましくは
単一の短いFIFOキューでありαキューとして表され
ている第1のバッファ手段16によって受けられる。α
キューの長さは、αキューを真っ直ぐに通るパケットが
あればこれが任意の特定のセッションの最も厳しい遅延
要件に合致するように選択される。αキューの長さは、
遅延に関して「良好なサービス」と考えられ得る最長の
遅延に対応する。輻輳の開始で、特定のセッションから
のパケットの到達のためαキューのレベルが上昇して容
量スレッショルドTonset,1 を越えこのセッションから
のパケットがαキューオーバーフローの可能性に貢献す
ると決定されると、そのセッションからのこのパケット
およびその後のパケットは時間スタンプが付けられて第
2のバッファ手段18(以後、βキューと称する)にバ
ッファリングされる。容量スレッショルドTonset,1
超過は、αキューで受けられるように意図されたパケッ
ト群の一部がβキューにバッファリングされるようなト
リガー条件を表す。βキューはαキューよりもかなり長
くともよい。引続く容量スレッショルドTonset,j (j
>1)を越えると、更なるセッションも同様βキューに
バッファリングされる。αキューの長さおよび各スレッ
ショルドTonset,j (j>1)の設定はバイト単位のメ
モリサイズにより定められ、各スレッショルドを越える
毎に、αキュー内の所定量のメモリがそこに記憶され出
力リンクへ送出されるばかりに準備がととのったデータ
パケットにより使用されることになる。
FIG. 2 shows a more detailed view of the first buffer means 16 and the second buffer means 18. All sessions (a session is a series of packets dedicated to one particular user for one application) are preferred, unless the system or even the network or even the switches of the network are congested. Is received by the first buffer means 16 which is a single short FIFO queue and is represented as an α queue. α
The queue length is chosen so that any packets that pass straight through the α queue will meet the most stringent delay requirements of any particular session. The length of the α queue is
Corresponds to the longest delay that can be considered "good service" in terms of delay. At the onset of congestion, if the level of the α queue rises due to the arrival of packets from a particular session and exceeds the capacity threshold T onset, 1 , it is determined that packets from this session contribute to the possibility of α queue overflow. , This packet from the session and subsequent packets are time stamped and buffered in a second buffer means 18 (hereinafter referred to as β queue). Exceeding the capacity threshold T onset, 1 represents a trigger condition such that a portion of the group of packets intended to be received in the α queue is buffered in the β queue. The β cue may be significantly longer than the α cue. Subsequent capacity threshold T onset, j (j
Beyond> 1), further sessions are buffered in the β queue as well. The length of the α queue and the setting of each threshold T onset, j (j> 1) are determined by the memory size in bytes. Each time the threshold is exceeded, a predetermined amount of memory in the α queue is stored and output there. It will be used by data packets that are ready just to be sent out on the link.

【0021】αキューからβキューに転送されるかαキ
ューに到達する前にβキューにバッファリングされるセ
ッションあるいはセッションのパケットを所望の特性に
応じて選択する広範囲の可能なアルゴリズムが使用され
てもよい。このようなアルゴリズムは以下のものを含
む。 (a)無作為:セッションは現在進行中のものから無作
為に選択される。このような選択は全てのセッションに
渡りそれらの寿命を通して性能劣化を波及させようとす
るが、それは全てのセッションに渡って同時ではない。
セッションのパケットは、例えば、これらパケットに関
連する特定のカウント数に関連するようなシステムで発
生される乱数に従ってランダムに選択されてもよい。 (b)公平性:スレッショルドを越えるときαキュー内
で最も多いパケットを有するセッションが選択される。
このような選択は公平な共用よりも高い瞬間帯域幅要求
を有するセッションに対して不利益を与えようとする。
どのセッションに不利益を与えるようにするかを決定す
る上で瞬間的に公平になろうとするが、同時に影響され
るセッションの数を最少にする利益がある。この場合
に、αキューに記憶されている各セッションの各パケッ
トは識別されて、αキューにより記録され、その後カウ
ントされる。 (c)次パケット:βキューには既になく最初のあるい
はその後の容量スレッショルドを最初に越えるパケット
のセッションまたは最初の容量スレッショルドを越える
パケットのセッションが選択される。このような選択は
公平であること(到達する次パケットが最も高い瞬間帯
域幅を備えたセッションからのものである可能性が大き
い)と不利益を与えるべきセッションを無作為化するこ
ととの間の混合である。それは構成化するための最も単
純なアルゴリズムとなるといった追加の利点を有する。 (d)履歴:過去のある段階でβキューにあったが現在
はαキューにあるセッションが選択される。このような
決定は既に不利益を与えられたセッションの不利益状態
を保持しようとする。それは全期間の間他のセッション
が受ける不利益の量を最少にし、このため全セッション
に渡って良好なサービスを受けるユーザの数を最大にし
ようとする。以上のアルゴリズムはソフトウェアかハー
ドウェアかのいずれかで実現し得る。
A wide range of possible algorithms are used to select sessions or packets of sessions to be transferred from the α queue to the β queue or buffered in the β queue before reaching the α queue depending on the desired characteristics. Is also good. Such algorithms include: (A) Random: Sessions are randomly selected from those currently in progress. While such a selection seeks to spread the performance degradation throughout their lifetime over all sessions, it is not simultaneous across all sessions.
The packets for the session may be randomly selected, for example, according to a random number generated by the system as being associated with a particular count associated with those packets. (B) Fairness: The session with the most packets in the α queue when the threshold is exceeded is selected.
Such a choice tends to penalize sessions with higher instantaneous bandwidth requirements than fair sharing.
It tries to be fairly instantaneous in deciding which sessions to penalize, but has the benefit of minimizing the number of sessions affected at the same time. In this case, each packet of each session stored in the α queue is identified, recorded by the α queue, and then counted. (C) Next packet: The session of the packet that is not already in the β queue and first exceeds the first or subsequent capacity threshold or the session of the packet that exceeds the first capacity threshold is selected. Such a choice is between fairness (the next packet arriving is likely to be from the session with the highest instantaneous bandwidth) and randomizing the disadvantageous session. Is a mixture of It has the additional advantage of being the simplest algorithm to compose. (D) History: A session that was in the β queue at a certain stage in the past but is now in the α queue is selected. Such a decision seeks to preserve the disadvantaged state of the already disadvantaged session. It seeks to minimize the amount of detriment to other sessions during the entire period, and thus maximize the number of users receiving good service over the entire session. The above algorithm can be implemented in either software or hardware.

【0022】図3には第2のバッファ18すなわちβバ
ッファに記憶されている多数のセッションが示されてい
る。時間切れスレッショルドtexpireが設定され、t
expireよりも長くβキューに記憶されている全てのパケ
ットは廃棄される。例えば、図3のβキューにおいて、
それに記憶されている最も古いパケットはβキューに入
力された順序で廃棄される。βキューに記憶されている
パケットがそのメモリ容量を越えることでβキューがオ
ーバーフローすれば、システムは種々のセッションから
の新たに到達するパケットをドロップするか、またはβ
キュー内の最も古いパケットを押し出すかあるいは廃棄
してもよい。後者の手法はキュー内のパケットの存在期
間を最少にしようとし、従って送出されるパケットがそ
れらのエンド・ツー・エンド遅延要件に合致する機会を
最大にしようとする。
FIG. 3 shows a number of sessions stored in the second buffer 18, ie the β buffer. A timeout threshold t expire is set and t
All packets stored in the β queue longer than expire are discarded. For example, in the β queue of FIG.
The oldest packets stored therein are discarded in the order entered in the β queue. If the beta queue overflows because the packets stored in the beta queue exceed its memory capacity, the system either drops newly arriving packets from various sessions, or
The oldest packet in the queue may be pushed out or discarded. The latter approach seeks to minimize the age of the packets in the queue, and thus maximize the chances that the packets sent will meet their end-to-end delay requirements.

【0023】多数の時間切れスレッショルドtexpire,j
が第2のバッファ手段18に記憶されるデータトラヒッ
クの形式に応じて設定されてもよい。例えば、データト
ラヒックがビデオあるいは音声パケットからなる場合に
は、実時間ストリームの被遅延パケットが極めて制限さ
れた値のものであるため、小さなtexpireが設定され、
これは引続くパケットを遅延するように働くに過ぎな
い。他の端値では、パケットがインターネットでのサー
バからのファイル転送を表すようにしてもよい。この場
合に、texpireは情報が実時間で配送される必要がない
ため大きくされてもよい。従って、後に再送出を必要と
するようなパケットの欠落よりも僅かな遅延は一層受入
可能である。
A number of timeout thresholds t expire, j
May be set according to the format of the data traffic stored in the second buffer means 18. For example, if the data traffic consists of video or voice packets, a small t expire is set because the delayed packets of the real-time stream are of very limited value,
This only serves to delay subsequent packets. At other extremes, the packet may represent a file transfer from a server on the Internet. In this case, t expire may be increased because the information need not be delivered in real time. Thus, smaller delays are more acceptable than packet drops that would require retransmission at a later time.

【0024】αキューに現在使用されているメモリが特
定のサイズまで低下する減少スレッショルドTabate
でαキューのパケットによる長さあるいは占有が低下す
ると、βキューのパケットがαキューに戻る方向に移動
する。あるセッションからのパケットは、そのセッショ
ンからのパケットがβキューに残っていない時にはβキ
ューに再び向けられるのを止める。βキューからαキュ
ーに移動される全てのパケットには「被遅延」のマーク
が付される。どのパケットが最初にβキューからαキュ
ーに移動するかを決定する多くのアルゴリズムがあり、
これらは次のものである。 (a)FIFO:これは実施する上で最も簡単なβキュ
ーアルゴリズムであり、αキューの長さがTabate まで
低下する時にβキューへの到着の順序でαキューへパケ
ットを単純に移動する。βキュー内の各セッションから
のパケットの数は、αキューがセッションの転送を何時
停止するかを知るように記録される必要がある。例え
ば、βキューに記憶された最も新しいセッションである
セッション20には、3つのパケットがあり、そのため
セッション20の最後のすなわち3番目のパケットがα
キューに転送される時に、αキューすなわち第1のバッ
ファ手段16にはそれがそのセッションの最後のパケッ
トであることが通知されることになる。従って、αキュ
ーに入力されるセッション20の引続くパケットがあれ
ばこれは、セッション20の最初の3つのパケットが転
送されるかあるいはαキューから出力された後に転送さ
れるに過ぎない。この記録は以下の(b)、(c)およ
び(d)で記載するアルゴリズムにも適用する。 (b)FIFO−FIFO:これは、βキューに転送さ
れるかあるいはそれにバッファリングされる各セッショ
ンが別々に維持されている場合である。αキューがT
abate 以下に低下すると、βキューにある最初のセッシ
ョンからのパケットはαキューに移動し、つまりセッシ
ョンは先入れ先出し順序で取り扱われる。このセッショ
ンからのパケットにはβキューに含まれている他のセッ
ションに対する優先権が与えられる。あるセッション内
で、パケットもセッション内でのシーケンス状態を保存
するために先入れ先出し順序で転送される。 (c)LIFO−FIFO:βキューに転送されるかあ
るいはそれにバッファリングされる各セッションは個別
に維持される。αキューがTabate 以下に低下すると、
βキューに最も新しく置かれたセッションからのパケッ
トはαキューに移動され、すなわちセッションは後入れ
先出し態様で取り扱われる。このセッションからのパケ
ットにはβキューに含まれる他のセッションに対する優
先権が与えられる。しかしながら、あるセッション内
で、セッション内のシーケンス状態を保存するためにパ
ケットは依然として先入れ先出し順序で転送される。こ
のようなアルゴリズムは何時でも受入可能な遅延性能を
受けるセッション数を最大にしようとする。 (d)公平性 パケットは、αキューの長さがTabate 以下かあるいは
それに等しい時に公平待機手法を用いてβキューからα
キューに転送される。このようにして、βキュー内のセ
ッションは、なおαキューを用いてセッションが残した
残留帯域幅を使用する。このような手段は現在不利益を
受けているセッションに対して公平化しようとする。全
てのパケットがαキューを介して出力ポート6を出るこ
とを特記しておく。
When the length or occupancy of the α queue packet decreases until the memory currently used for the α queue decreases to a specific size until the decreasing threshold T abate , the packet of the β queue moves in the direction of returning to the α queue. . Packets from a session stop being redirected to the β queue when no packets from the session remain in the β queue. All packets moved from the β queue to the α queue are marked as “delayed”. There are many algorithms that determine which packet goes first from the β queue to the α queue,
These are: (A) FIFO: This is the simplest β queue algorithm to implement, and simply moves packets to the α queue in the order of arrival at the β queue when the length of the α queue drops to T abate . The number of packets from each session in the β queue needs to be recorded so that it knows when the α queue stops transferring sessions. For example, the most recent session stored in the β queue, session 20, has three packets, so that the last or third packet of session 20 is α
When transferred to the queue, the α queue or first buffer means 16 will be notified that it is the last packet of the session. Therefore, any subsequent packets of session 20 that enter the α queue will only be forwarded after the first three packets of session 20 have been forwarded or output from the α queue. This record also applies to the algorithms described in (b), (c) and (d) below. (B) FIFO-FIFO: This is the case where each session transferred to or buffered in the β queue is maintained separately. α queue is T
When dropped below abate , packets from the first session in the β queue are moved to the α queue, ie, sessions are handled in first-in first-out order. Packets from this session are given priority over other sessions contained in the β queue. Within a session, packets are also transferred in a first-in, first-out order to preserve the sequence state within the session. (C) LIFO-FIFO: Each session transferred to or buffered in the β queue is maintained separately. When the α cue drops below T abate ,
Packets from the session most recently placed in the β queue are moved to the α queue, ie, the session is handled in a last-in first-out manner. Packets from this session are given priority over other sessions contained in the β queue. However, within a session, packets are still forwarded in a first-in, first-out order to preserve the sequence state within the session. Such an algorithm seeks to maximize the number of sessions that receive an acceptable delay performance at any time. (D) Fairness When the length of the α queue is equal to or less than T abate , the packet is transmitted from the β queue to the α using the fair standby method.
Transferred to queue. In this way, sessions in the β queue still use the residual bandwidth left by the session using the α queue. Such measures seek to impartialize currently disadvantaged sessions. Note that all packets leave output port 6 via the α queue.

【0025】第2のバッファ手段18を出たパケットは
網の他のノードあるいは交換機による識別を可能とする
ようにマークが付される。後続のノードで、これらパケ
ットは輻輳の期間の間に第2のバッファ出力段へのバッ
ファリングの最初の選択を行なわれてもよい。この態様
で、網の1点以上で輻輳が同時に生じる場合、網はどの
セッションに不利益が与えられるかを調整することがで
きる。例えば、セッションが1つのノードで第2のバッ
ファ手段18にバッファリングされた場合には、網の他
のノード(単数あるいは複数)にそのセッションから送
出された最初のパケットあるいはその後のパケットはそ
のヘッダに指示を持つことになり、これはそれが属する
セッションが前にバッファリングされたことを表す。従
って、他のノードはそのセッションをバッファリングし
続けるように選択することができる。
The packet leaving the second buffer means 18 is marked so that it can be identified by another node or switch in the network. At subsequent nodes, these packets may make an initial selection of buffering to a second buffer output stage during periods of congestion. In this manner, if congestion occurs simultaneously at one or more points in the network, the network can adjust which sessions are disadvantaged. For example, if a session is buffered at one node in the second buffer means 18, the first packet or subsequent packets sent from that session to the other node (s) of the network will have its header , Which indicates that the session to which it belongs was previously buffered. Thus, other nodes can choose to continue buffering the session.

【0026】本発明の他の実施例が図4および図5に示
されている。入力ポート4、出力ポート6および交換構
造8は図1と同様に表されている。第1のバッファ手段
16は出力キューの形態をなしており、第2のバッファ
手段18あるいは第3のバッファ手段19のいずれかか
ら1つあるいはそれ以上のセッションを表すデータパケ
ットを受ける。この別態様の実施例の第2のバッファ手
段18および第3のバッファ手段19のそれぞれは一連
のパーセッション(per−session)キュー2
1からなる。すなわち、各セッションからのデータパケ
ットは個々のキュー21で受けられ、そこに記憶され
る。第2のバッファ手段18および第3のバッファ手段
19はパーセッションキュー21の単一の集合体の単純
なサブセットであることを特記する。これらのキュー2
1は第2のバッファ手段あるいは第3のバッファ手段1
9のいずれかの部分として動的に再分類されることがで
きる。一般的に、第3のバッファ手段19のパーセッシ
ョンキュー19に記憶されているパケットは、前に述べ
たFIFOあるいは公平待機のような選択されたスケジ
ュール作成規律に従って第1のバッファ手段16に転送
される。バッファ手段19のパーセッションキュー内の
パケットは、第1のバッファ手段16から出力リンク1
5にパケットが読み出される速度よりもかなり高い速度
でポーリングされるか読み出される。次いで、第1のバ
ッファ手段16のパケットは出力リンク15にFIFO
順に送出される。第2および第3のバッファ手段18、
19は論理キューとして構成化され得る。第1の実施例
の場合のように、輻輳の開始で、第1のバッファ手段の
レベルが第3のバッファ手段からのパケットの到来のた
めに上昇すると、1つあるいはそれ以上の容量スレッシ
ョルドTonset,j (J>1)を越える可能性がある。バ
ッファ手段16に到達する特定のパケットのためバッフ
ァ手段16の容量が第1のスレッショルドTonset,1
越えるとしたら、これはそのパケットに属するセッショ
ンが第2のバッファ手段18においてそのバッファ手段
18のそれぞれのキューに引続いてバッファリングされ
るようなトリガー条件を表す。これは第1のバッファ手
段16がオーバーフローしないような援助となる。その
後容量スレッショルドを超過すると、更なるセッション
が第2のバッファ手段18にバッファリングされる。種
々のセッションからのデータパケットのバッファリング
は上述したアルゴリズムの任意のもの、すなわち無作
為、公平性、次パケットまたは履歴アルゴリズムのいず
れかに従って行なわれる。
Another embodiment of the present invention is shown in FIGS. The input port 4, output port 6 and switching structure 8 are represented as in FIG. The first buffer means 16 is in the form of an output queue and receives data packets representing one or more sessions from either the second buffer means 18 or the third buffer means 19. Each of the second buffer means 18 and the third buffer means 19 of this alternative embodiment comprises a series of per-session queues 2.
Consists of one. That is, data packets from each session are received at individual queues 21 and stored there. Note that the second buffer means 18 and the third buffer means 19 are simple subsets of a single collection of percession queues 21. These queues 2
1 is a second buffer means or a third buffer means 1
9 can be dynamically reclassified as any part. Generally, the packets stored in the persession queue 19 of the third buffer means 19 are forwarded to the first buffer means 16 according to a selected scheduling discipline such as FIFO or fair standby as described above. You. The packet in the permission queue of the buffer means 19 is output from the first buffer means 16 to the output link 1.
5 is polled or read at a rate much higher than the rate at which packets are read. Next, the packet of the first buffer means 16 is sent to the output link 15 by FIFO.
They are sent out in order. Second and third buffer means 18,
19 can be configured as a logical queue. As in the first embodiment, at the onset of congestion, when the level of the first buffer means rises due to the arrival of packets from the third buffer means, one or more capacity thresholds T onset , j (J> 1). If the capacity of the buffer means 16 exceeds the first threshold T onset, 1 for a particular packet arriving at the buffer means 16, this means that the session belonging to that packet will Represents trigger conditions that are subsequently buffered in each queue. This helps to prevent the first buffer means 16 from overflowing. If the capacity threshold is subsequently exceeded, further sessions are buffered in the second buffer means 18. Buffering of data packets from various sessions may be performed according to any of the algorithms described above, ie, random, fair, next packet or history algorithms.

【0027】時間切れスレッショルドtexpireは第2の
バッファ手段にバッファリングされたパケットに対して
設定され、そのためtexpireよりも長くバッファリング
されたパケットがあればそれは廃棄される。種々の時間
切れスレッショルドtexpireが前の実施例の場合と同様
に音声、ビデオあるいはウェブブラウズのようなバッフ
ァリングされるデータストリームの形式に応じて設定さ
れてもよい。
The timeout threshold, t expire, is set for packets buffered in the second buffer means, so that any packets buffered longer than t expire are discarded. Various timeout thresholds t expire may be set depending on the type of buffered data stream such as audio, video or web browsing as in the previous embodiment.

【0028】第1のバッファ手段の長さが減少スレッシ
ョルドTabate まで低下すると、パケットは第2のバッ
ファ手段18から第1のバッファ手段16まで移動され
る。これはFIFO、FIFO−FIFOあるいはLI
FO−FIFOのような第1の実施例に関連して上述し
たアルゴリズムによって行なわれてもよいが、なるべく
はLIFO−FIFOアルゴリズムを使用して最も新し
いセッションがバッファ手段18からバッファ手段16
に転送されるようにする。その最も新しいセッション内
の各パケットは、それらがそれぞれのパーセッションキ
ューに入った順序で転送されてシーケンスが維持される
ようにする。
When the length of the first buffer means has decreased to the decreasing threshold T abate , the packet is moved from the second buffer means 18 to the first buffer means 16. This is a FIFO, FIFO-FIFO or LI
The most recent session may be performed from the buffer means 18 to the buffer means 16 by means of the algorithm described above in connection with the first embodiment, such as the FO-FIFO, but preferably using the LIFO-FIFO algorithm.
To be forwarded to Each packet in the newest session is forwarded in the order in which they entered their respective persession queue so that the sequence is maintained.

【0029】別の実施例において、第3のバッファ手段
は、セッションのパケットがパーセッションキュー21
から直接出力リンク15に出力されるようにする第1の
バッファ手段として働くようにしてもよい。この実施例
においては、前の実施例の場合と同様に出力バッファは
不用である。容量スレッショルドTonset,j は第3のバ
ッファ手段の現在の論理内容、すなわちパーセッション
キュー21のそれぞれ内の個々のセッションで占められ
る容量の和に基づいている。従って、スレッショルドを
越える特定のセッションのパケットがあればそれは上述
した状況の任意のものに従って処理されることにある。
In another embodiment, the third buffer means stores the packet of the session in the persession queue 21.
May be used as a first buffer means for outputting the data directly to the output link 15 from the CPU. In this embodiment, as in the previous embodiment, no output buffer is required. The capacity threshold T onset, j is based on the current logical content of the third buffer means, ie the sum of the capacity occupied by the individual sessions in each of the persession queues 21. Thus, any packet for a particular session that exceeds the threshold is to be processed according to any of the situations described above.

【0030】あるシミュレーションの実験が行なわれ、
これら実験の結果を以下に述べる。図6は設定されたシ
ミュレーションを示し、ビデオサーバからのMPEGデ
ータストリームを発生する参照番号22で表された多数
のトラヒックソース1〜Nがノードあるいは交換機24
により共に多重化されて単一のデータリンク26に向け
られ、シンク28に送出される。シンク28はこのシミ
ュレーションにおいてはパケットを廃棄するものとして
働く。より大容量のトラヒックを多重化することができ
る任意の他形式のサーバがこの例において同様使用され
てもよい。
An experiment of a simulation is performed,
The results of these experiments are described below. FIG. 6 shows a simulation set up, wherein a number of traffic sources 1-N, indicated by reference numeral 22, generating MPEG data streams from a video server
Are multiplexed together and directed to a single data link 26 and sent to a sink 28. Sink 28 acts in this simulation as discarding the packet. Any other type of server capable of multiplexing larger volumes of traffic may be used in this example as well.

【0031】文献「ATMシステムにおけるトラヒック
モデル化についてのMPEGビデオトラヒックの統計的
特性およびそれらのインパクト」ローカルコンピュータ
網に関する20回年次会議の議事録、1995年、第3
97〜406頁(ftpでのMPEGトレース://f
tp−info3.informatik.uni−w
uerzhurg.de/pub/MPEG)でO.R
oseによって与えられた実際のMPEGトレースから
のフレームサイズがこのシミュレーションソースのため
使用される。表1はMPEGソースの特性を要約するも
のである。全てのソースは1秒当り25フレームで4M
bpsのピーク速度を有し、持続時間は1600秒であ
る(1260秒であるnews1トレースを除く)。そ
れらは1600秒の時間期間無作為に開始され、測定は
1600秒および3200秒の間で行なわれる。MPE
Gトレースが終わりになると、それは反復される。フレ
ームは40バイト最小パケットサイズで伝送するため1
500バイトパケットに分断される。
Reference: Statistical properties of MPEG video traffic and their impact on traffic modeling in ATM systems. Proceedings of the 20th Annual Conference on Local Computer Networks, 1995, 3rd.
Pages 97-406 (MPEG trace at ftp: // f
tp-info3. informatic. uni-w
uerzhurg. de / pub / MPEG). R
The frame size from the actual MPEG trace given by ose is used for this simulation source. Table 1 summarizes the characteristics of the MPEG source. All sources are 4M at 25 frames per second
It has a peak speed of bps and a duration of 1600 seconds (except for the news1 trace which is 1260 seconds). They are started randomly for a time period of 1600 seconds and measurements are taken between 1600 and 3200 seconds. MPE
When the G trace ends, it repeats. Since the frame is transmitted with a minimum packet size of 40 bytes, 1
It is divided into 500 byte packets.

【0032】[0032]

【表1】 [Table 1]

【0033】各セッションに対して次の測定値が収集さ
れる。 −各パケットに対するエンド・ツー・エンド遅延 −欠落した実際のパケット −品位低下したパケット(50ms>遅延したパケッ
ト) −品位低下したフレーム(品位低下したかあるいは欠落
したパケットに関連したフレーム) −品位低下した秒(品位低下したフレームに関連した1
秒の時間期間)
The following measurements are collected for each session: -End-to-end delay for each packet-actual packets dropped-degraded packets (50ms> delayed packets)-degraded frames (frames related to degraded or dropped packets)-degraded Seconds (1 related to degraded frames)
Seconds duration)

【0034】セッションのフレームが品位低下されてい
なければ、セッションは任意の特定の秒の間に「良好な
サービス」を受けている。「良好なサービス」を受けて
いないセッションがあればこれは「品位低下したサービ
ス」を受けていると考えられる。本発明のシステムは特
定の過渡輻輳期間の間に良好なサービスを受けるできる
だけ多くのセッションを与えるようにこれらのシミュレ
ーション実験に基づいて実施される。第2のバッファ手
段18すなわちβキューは前に述べたLIFOーFIF
O原理に従う。βキューからのパケットはαキューが空
の時のみ、換言すればTabate が0の時のみαキューに
転送される。βキューにパケットを転送するスレッショ
ルドTonset,j はJ≧1に対してL−L/(3+j−
1)に設定される(ここで、Lはこのシミュレーション
ではαキューの長さである)。あるソース(またはセッ
ション)からのパケットがβキューになければそのよう
なソースは転送リストから取り除かれる。進行中の可変
数のセッションを有する理想的な網においては、シミュ
レーションにおけるセッションの数を進行中のセッショ
ンの数で単純に置換することによりスレッショルドの割
当てが動的になされることができる。パケット時間切れ
スレッショルドtexpireは400msに設定される。
If the frames of the session have not been degraded, the session has received "good service" during any particular second. If there is a session that has not received “good service”, this is considered to have received “degraded service”. The system of the present invention is implemented based on these simulation experiments to provide as many sessions as possible to receive good service during a particular transient congestion period. The second buffer means 18, ie, the β queue, is provided with the LIFO-FI
Follow the O principle. Packets from the β queue are transferred to the α queue only when the α queue is empty, in other words, only when T abate is 0. The threshold Tonset, j for transferring a packet to the β queue is LL / (3 + j−
1) (where L is the length of the α queue in this simulation). If no packets from a source (or session) are in the β queue, such a source is removed from the forwarding list. In an ideal network with a variable number of ongoing sessions, the threshold assignment can be made dynamically by simply replacing the number of sessions in the simulation with the number of ongoing sessions. The packet timeout threshold, t expire, is set to 400 ms.

【0035】この組の実験において、どのセッションを
βキューに転送させるかを選択する最も簡単な方法が選
ばれる。その方法は、Tonset,j を越える最初のパケッ
トのセッションがβキューに転送されるように選ばれる
ような次方法である。βキューはこのオーバーフロー時
に最旧パケット押し出し機構を用いる。
In this set of experiments, the simplest method of choosing which session to transfer to the β queue is chosen. The method is such that the session of the first packet exceeding T onset, j is chosen to be transferred to the β queue. The β queue uses the oldest packet pushing mechanism at the time of this overflow.

【0036】表2では、二重キュー(DQ)と名付けら
れた本発明のアルゴリズムあるいは方法の性能を実在の
FIFOおよび公平待機方法と比較するために使用され
た1組のシミュレーション実験をリストしたものを示
す。公平待機比較のためにデフィスィットラウンドロビ
ン(deficit round robin:DR
R)技術が使用されるが、DQとのより公平な比較を行
なうため旧パケット廃棄を含むように拡張される(拡張
DRR)。
Table 2 lists a set of simulation experiments used to compare the performance of the algorithm or method of the present invention, termed double queue (DQ), with real FIFO and fair standby methods. Is shown. Define round robin (DR) for fair wait comparison
R) technique is used, but is extended to include older packet discards (extended DRR) to make a fairer comparison with DQ.

【0037】[0037]

【表2】 [Table 2]

【0038】DRR技術は、「デフィスィットラウンド
ロビンを用いる効果的な公平待機」IEEE/ACMト
ランザクション、ネットワーキング、第4巻、第3号、
1996年、第375〜385頁と題する文献において
M.ShreedharおよびG.Vargheseに
よって紹介された。
The DRR technique is described in "Effective Fair Waiting Using Deficit Round Robin", IEEE / ACM Transactions, Networking, Vol.
In 1996, in the literature entitled pp. 375-385, M.M. Shredhar and G.W. Introduced by Vargese.

【0039】前に述べたように、パケットはそれが50
ms以上遅延されれば廃棄される。これは、フレームが
視聴者すなわちユーザに表示されてしまわない前に許さ
れる最大遅延の推定値として使用される。texpire=4
00msより長い間待機したパケットは拡張DRRおよ
びDQアルゴリズムで廃棄される。しかしながら、表示
のために余りにも遅く到達するMPEGフレームであっ
ても、そんなに悪くは遅延されないような後のフレーム
の復号のためには依然として有効かもしれない。
As mentioned earlier, a packet has 50
If it is delayed for more than ms, it is discarded. This is used as an estimate of the maximum delay allowed before the frame is not displayed to the viewer or user. t expire = 4
Packets waiting longer than 00 ms are discarded by the extended DRR and DQ algorithms. However, MPEG frames that arrive too late for display may still be useful for decoding subsequent frames that are not delayed so badly.

【0040】全てのキューには同一の合計バッファサイ
ズが与えられ、各シミュレーション実験で使用されるビ
ット速度は一定に保持される。DQで実施したαキュー
のサイズはリンク転送速度が50msの最大パケット遅
延を与えるように変えられる時には変化したものとな
る。ラウンドロビンスケジュール作成法によって取り入
れられたDRRにおける最悪サービス遅延オーバーヘッ
ドは50msの良好サービス遅延スレッショルドよりも
小さいことも特記しておく。
All queues are given the same total buffer size and the bit rate used in each simulation experiment is kept constant. The size of the α queue implemented in DQ will change when the link transfer rate is changed to give a maximum packet delay of 50 ms. It should also be noted that the worst service delay overhead in the DRR introduced by the round robin scheduling method is less than the 50 ms good service delay threshold.

【0041】表2に示された実験1において、20の全
ての異種MPEGソースはリンク26に向けて多重化さ
れる。番号3、10、14および20の4つの代表的な
セッションが任意に選択されて、FIFO、拡張DRR
およびDQスケジュール作成アルゴリズム間での詳細な
比較を与えるようになっている。
In Experiment 1, shown in Table 2, all twenty heterogeneous MPEG sources are multiplexed to link 26. Four representative sessions, numbered 3, 10, 14 and 20, are arbitrarily selected to provide FIFO, extended DRR
And a detailed comparison between the DQ scheduling algorithm.

【0042】図7は、リンク伝送速度が10Mbpsで
ある(9.5Mbpsの合計平均提示速度に匹敵)時の
セッション3(グラフ30によって表される)、セッシ
ョン10(グラフ32によって表される)、セッション
14(グラフ34によって表される)およびセッション
20(グラフ36によって表される)に対する累積確率
分布のグラフを示す。ドロップしたパケットは図5にお
いて無限の遅延を持つものと考えられる。輻輳時にアル
ゴリズム間の差を誇張するために大きくロードされる場
合が選択された。50ms良好サービス臨界点で線が引
かれている。DQアルゴリズムは50ms以下の遅延を
受けるパケットの最高の部分を与えることが解る。これ
はあるパケットに50msよりも大きな遅延を与えるこ
とによって達成される。このようなパケットに与えられ
るサービスが既に品位低下していると仮定すれば、遅延
が50msを越える量は殆ど関係がないと考えられる。
拡張DRRはセッション番号20には他のセッションよ
りも良好なサービスを与える(通常、それは公平待機ベ
ースの規律から期待されるほど帯域幅のその公平共有で
動作していないためである)ことを特記する。これはま
たDQアルゴリズムにも当てはまることも特記する。
FIG. 7 shows session 3 (represented by graph 30), session 10 (represented by graph 32) when the link transmission rate is 10 Mbps (comparable to the total average presentation rate of 9.5 Mbps). 4 shows a graph of the cumulative probability distribution for session 14 (represented by graph 34) and session 20 (represented by graph 36). The dropped packet is considered to have an infinite delay in FIG. The case of heavy loading was chosen to exaggerate differences between algorithms during congestion. A line is drawn at the 50 ms good service critical point. It can be seen that the DQ algorithm gives the highest part of the packet that experiences less than 50 ms delay. This is achieved by giving a packet a delay of more than 50 ms. Assuming that the service provided to such a packet has already degraded, the amount of delay exceeding 50 ms is considered to be of little relevance.
Note that enhanced DRR gives session number 20 better service than other sessions (usually because it is not operating on its fair share of bandwidth as expected from fair-wait-based discipline). I do. Note that this also applies to the DQ algorithm.

【0043】図8には、リンク26での伝送速度が12
Mbpsに増加した場合の、ソースあるいはセッション
3、10、14および20のそれぞれの1秒当りの最高
パケット遅延のシミュレーション時間に対するプロット
が示されている。プロット38、40、42および44
はそれぞれのセッション3、10、14および20のた
めのものである。良好サービス遮断点を示すため50m
sのマークに線が引かれている。図示の時間範囲は種々
のアルゴリズム間の比較のため多数の過渡輻輳期間を含
むように選択されている。FIFOはパケットレベルで
は公平であり、全てのセッションのパケットはFIFO
ベースではノード24を通る時に平均的に同一の遅延を
受ける。拡張DRRは少しは良好ではあるが、セッショ
ンの多くがそれらの要求するサービスほどのものを受け
ないようにして帯域幅を共用しなければならない時に
は、良好なサービスを配分し得ない。FQの優先の特性
はFIFO法の場合よりもより長い遅延をパケットのバ
ーストに与えてしまう。従って、リンクが図8のソース
3の頂部のトレース38に示されるように輻輳状態にな
っていない時でさえ、これらの特別な遅延は特定のセッ
ションからのパケットを品位低下させてしまう。選択さ
れたDQ規律は良好なサービスを受けているセッション
瞬間的な数を最大にするようにし、そのためセッション
のうちの1つは極めて不十分な遅延性能を受け、その結
果他のセッションは1925秒および1975秒の時間
でサービス品位低下が免れることが解る。
FIG. 8 shows that the transmission speed on the link 26 is 12
Shown is a plot of the maximum packet delay per second for the source or sessions 3, 10, 14, and 20, respectively, as simulated, as it increases to Mbps. Plots 38, 40, 42 and 44
Are for sessions 3, 10, 14, and 20, respectively. 50m to show good service interruption point
A line is drawn on the s mark. The time range shown has been chosen to include multiple periods of transient congestion for comparison between the various algorithms. The FIFO is fair at the packet level, and all session packets are FIFO
On the base, the same delay is experienced on average when passing through the node 24. Extended DRR is a little better, but cannot allocate good service when many of the sessions have to share bandwidth so that they do not receive as much of their required service. The priority property of the FQ gives a longer delay to the burst of packets than in the FIFO method. Thus, these extra delays can degrade packets from a particular session, even when the link is not congested as shown in trace 38 at the top of source 3 in FIG. The selected DQ discipline will maximize the instantaneous number of sessions receiving good service, so that one of the sessions will experience very poor delay performance, so that the other session will take 1925 seconds It can be seen that the service quality deterioration is avoided in the time of 1975 seconds.

【0044】20のセッションの全てによるQoSのレ
ベルのより良い図解が図9に与えられており、これは同
様の1秒期間の間に良好なサービスを同時に受ける全て
のセッションの部分(パーセンテージ)のプロット46
を示す。FIFOおよび拡張DRRアルゴリズムは18
55秒、1925秒および1975秒の時間で多くのセ
ッションに対して品位低下したサービスを与えることを
特記しておく。これらのQoSの図はサービスが良好で
あるかあるいは品位低下しているかのいずれかの場合に
2進形で表され得る。セッション当りのサービスの2進
表示はスケジュール作成規律のそれぞれ間の比較のため
に必要である全てを一般的に備えている。図10は、1
2Mbpsのリンク伝送速度での各セッションに対する
全測定時間スケールに渡る拡張DRRアルゴリズムのた
めのこのような表示48とDQアルゴリズムのための表
示50とを示す。垂直の棒は任意の特定のセッションが
受けるそれぞれの品位低下した秒に対して描かれてい
る。グラフ上の白色の空間が多ければ、それだけセッシ
ョンが受けているサービスは良好である。以降の図に示
される全ての結果はこの比較方法を用いる。図8から、
DQ法はどの特定の時間ででも拡張DRRよりも輻輳に
よって影響されるセッションの数を少なくすることが解
る。
A better illustration of the level of QoS by all of the 20 sessions is given in FIG. 9, which is the percentage of all sessions that simultaneously receive good service during a similar 1 second period. Plot 46
Is shown. FIFO and extended DRR algorithms are 18
It should be noted that in 55 seconds, 1925 seconds and 1975 seconds, many sessions are provided with degraded service. These QoS diagrams may be represented in binary form, either when the service is good or degraded. The binary representation of services per session generally provides everything needed for comparison between each of the scheduling disciplines. FIG.
Shown is such an indication 48 for the extended DRR algorithm and an indication 50 for the DQ algorithm over the entire measurement time scale for each session at a link transmission rate of 2 Mbps. Vertical bars are drawn for each degraded second that any particular session receives. The more white space on the graph, the better the service the session is receiving. All results shown in the following figures use this comparison method. From FIG.
It can be seen that the DQ method reduces the number of sessions affected by congestion at any particular time compared to the extended DRR.

【0045】伝送速度が図11に示される10Mbps
にかつ図12に示される8Mbpsに減少されるにつ
れ、拡張DRRおよびDQの差がより一層明かとなる。
プロット52と54はそれぞれ図11の拡張DRRおよ
びDQアルゴリズムのためのものであり、プロット56
および58はそれぞれ図12の拡張DRRおよびDQア
ルゴリズムのためのものである。DQ法は拡張DRRア
ルゴリズムに比較して極端なオーバーロードの状態下で
さえ殆どのセッションに良好なサービスを与えることが
明白である。これらの実験あるいはシミュレーションが
DQ手法の可能な最も単純な実現化を与えたとしても、
拡張DRRができるよりも実時間サービスに対するかな
り良好な性能を与えることが可能である。
The transmission speed is 10 Mbps shown in FIG.
12 and the difference between the extended DRR and DQ becomes even more apparent.
Plots 52 and 54 are for the extended DRR and DQ algorithms of FIG.
And 58 are for the extended DRR and DQ algorithms of FIG. 12, respectively. It is clear that the DQ method gives better service to most sessions even under extreme overload conditions compared to the extended DRR algorithm. Even if these experiments or simulations provided the simplest possible implementation of the DQ approach,
It can provide significantly better performance for real-time services than extended DRR can.

【0046】表2を参照すると、実験2および3はそれ
ぞれ4および40のソースを使用しており、DQアルゴ
リズムのスケーラビリティを決定するために行なわれる
ものである。実験2では、どのセッションのピークビッ
ト速度もリンク伝送速度よりも大きくこのためαキュー
を充填し始めるようにするという複雑さを加える。図1
3においては4つのソースが使用されており、管理不能
のロードが与えられた時でさえ、プロット60で示され
たDQアルゴリズムは、特にソース3および4に対して
僅かに良好でないとしても、プロット62で示された拡
張DRRアルゴリズムと同様に働くことが解る。実験3
においては、両スケジュール作成規律は殆ど全ての時間
で良好な性能を与え、この場合に図示は行なわなかっ
た。拡張DRRに対しては、13のセッションが単一の
輻輳発生時に品位低下したサービスを受けたが、同一の
期間の間でDQアルゴリズムを用いると1つだけのセッ
ションが品位低下したサービスを受けるに過ぎなくな
る。DQアルゴリズムにおいては、セッションが品位低
下したサービスを持つただ1つの秒があるが、拡張DR
Rを用いると1つの他の秒に品位低下したサービスが生
じる。従って、DQ手法は拡張DRRと比較した時には
かなりうまくスケーリングすることが結論付けられる。
Referring to Table 2, Experiments 2 and 3 use 4 and 40 sources, respectively, and are performed to determine the scalability of the DQ algorithm. Experiment 2 adds the complexity of having the peak bit rate of any session greater than the link transmission rate, thus starting to fill the α queue. FIG.
In FIG. 3, four sources are used, and even when given an unmanageable load, the DQ algorithm shown in plot 60, especially if slightly worse for sources 3 and 4, It can be seen that it works similarly to the extended DRR algorithm shown at 62. Experiment 3
In, both scheduling disciplines gave good performance at almost all times and were not shown in this case. For extended DRR, 13 sessions received degraded service when a single congestion occurred, but only one session received degraded service using the DQ algorithm during the same period. No longer. In the DQ algorithm, there is only one second during which a session has degraded service, but the extended DR
Using R results in a degraded service in one other second. Therefore, it can be concluded that the DQ approach scales fairly well when compared to the extended DRR.

【0047】中位の時間スケールに渡って公平性を検査
するために、20の同種のソースが実験4で使用され
た。セッションは0から1600秒の期間に渡って無作
為の時間で開始するraceトレースの20のコピーか
らなる。図14は、拡張DRRが各セッションに対して
極めて品位低下したサービスではあるが公平性を与える
と考えられる場合に、各セッションに対する拡張DRR
およびDQアルゴリズムのためのそれぞれの品位劣化し
た秒のスロット64および66を示す。定性的に、DQ
アルゴリズムも瞬間的ではなくシミュレーションの全体
の長さに渡って各セッションに対して公平なサービスを
与える。前の説明から理解されるように、各セッション
の全体に渡るQoSは拡張DRRによって与えられるも
のよりもDQにおいてははるかに良好である。
Twenty homogenous sources were used in Experiment 4 to check for fairness over a medium time scale. The session consists of 20 copies of the race trace starting at a random time over a period from 0 to 1600 seconds. FIG. 14 shows the extended DRR for each session when extended DRR is considered to be a very degraded service but provides fairness for each session.
And degraded seconds slots 64 and 66, respectively, for the DQ algorithm. Qualitatively, DQ
The algorithm also provides fair service to each session over the entire length of the simulation, rather than instantaneously. As can be seen from the previous description, the overall QoS of each session is much better in DQ than that provided by the extended DRR.

【0048】包括的に、輻輳がない時には、比較された
全ての手法は良好なサービスを与えることが理解され
る。しかしながら、輻輳の期間が増大すれば、それだけ
3つのアルゴリズム間の相違が大きくなる。図15に
は、種々の平均提示ロード(リンク伝送速度に標準化さ
れている)に対するFIFO、DRR、拡張DRRおよ
びDQアルゴリズムに対して品位低下したパケットの部
分(パーセンテージ)のプロット68が示されている。
過渡輻輳期間時にできるだけ多くのセッションに良好な
サービスを与えるその目的を達成することは別にして、
DQアルゴリズムはまた品位劣化したパケットの全体の
割合を最小にする。DQ手法の簡単な実施例の下でさえ
品位劣化したパケットの割合は1アーラン(Erlan
g)以上の過剰提示ロードに近付き、従って最適値に近
いことを特記しなければならない。これはまた短いFI
FOキューにも云えることでもあるが、短いFIFOキ
ューは提示ロードが伝送リンク速度に近いがそれより小
さい時には過渡輻輳期間時に不必要なロスを生じさせて
しまうといった欠点を有する。また、短いFIFOキュ
ーはDQの場合のように選択的ではなく無作為にパケッ
トを欠落させる。
[0048] In general, it is understood that when there is no congestion, all approaches compared provide good service. However, the longer the period of congestion, the greater the difference between the three algorithms. FIG. 15 shows a plot 68 of the degraded packet percentage for the FIFO, DRR, enhanced DRR and DQ algorithms for various average presentation loads (standardized to link transmission rate). .
Apart from achieving its goal of providing good service to as many sessions as possible during periods of transient congestion,
The DQ algorithm also minimizes the overall rate of degraded packets. Even under the simple embodiment of the DQ approach, the rate of degraded packets is 1 Erlang
g) It must be noted that the oversubscribed load is approaching above, and therefore close to the optimal value. This is also a short FI
As with FO queues, short FIFO queues have the disadvantage that if the offered load is close to but less than the transmission link speed, it will cause unnecessary losses during transient congestion periods. Also, short FIFO queues drop packets randomly rather than selectively, as in DQ.

【0049】過渡輻輳状態の間に、通常のFIFOキュ
ーに入るパケットは全て同様の品位低下したサービスを
受ける。輻輳が少数のセッションによって生じた場合に
は、公平待機は他のセッションに対する救済を行なう。
しかしながら、前に述べた結果は、過渡輻輳が往々多く
のセッションによって生じて組合せのトラヒィックがキ
ューを充填するような場合にこのことが常に該当すると
は限らないことを示す。公平待機は帯域幅を等しく分割
し、このため極めて多数のセッション、従って極めて多
数のパケットのサービスを品位低下させる。DQアルゴ
リズムは、それが輻輳期間時にセッションの大部分のた
めの良好なサービスを得るようにそのために必要なセッ
ションのサービスを劣化させ、従ってまたスループット
を向上するために公平待機よりも性能が優れている。
During transient congestion conditions, all packets entering the normal FIFO queue receive similar degraded service. If congestion is caused by a small number of sessions, fair wait provides relief for other sessions.
However, the results mentioned above indicate that this is not always the case when transient congestion is often caused by many sessions and the combined traffic fills the queue. Fair waiting divides the bandwidth equally, thus degrading the service of a very large number of sessions and therefore a very large number of packets. The DQ algorithm degrades the service of the session required for it to get good service for the majority of the session during periods of congestion, and thus also outperforms fair standby to improve throughput. I have.

【0050】前に述べたように、サービス提供者は、ユ
ーザが接続を行なって不十分なQoSを受ける時にユー
ザが感じる不満を数を最少にするように「完璧な」サー
ビスを受ける、すなわち輻輳のきざしを表さないユーザ
の数を最大にすることを欲るかもしれない。これは、
「ターゲット」リストまたはファイルにある段階でβキ
ューに転送された接続を記録しかつシステムに輻輳が生
じる次の時にそれらが再度転送される確率を増大するこ
とによって達成される。従って、品位低下はかなりの時
間スケールを経てもユーザ間で均一には広がらず、輻輳
によっては影響を受けないでいる接続の確率を増大す
る。ターゲットリストまたはファイルでの接続を転送す
る確率を1に増大させることができ、その状態では前に
転送された全ての接続が現在転送されてしまうまで新た
な接続は転送されない。他の別態様は現在のデータ速度
並びにターゲットリストまたはファイルの接続の存在を
含む幾つかの要因を考慮することである。
As mentioned earlier, the service provider receives a “perfect” service to minimize the number of complaints the user feels when making a connection and receiving poor QoS, ie, congestion. You may want to maximize the number of users who don't show a sign. this is,
This is accomplished by recording the connections transferred to the β queue at some stage in the “target” list or file and increasing the probability that they will be transferred again the next time the system becomes congested. Thus, the degradation will not spread evenly between users over a considerable time scale, increasing the probability of a connection being unaffected by congestion. The probability of transferring a connection in the target list or file can be increased to one, in which no new connections are transferred until all previously transferred connections have now been transferred. Another alternative is to take into account several factors, including the current data rate as well as the presence of a target list or file connection.

【0051】サービス提供者の狙いが時間的に何時でも
満足する顧客の数を最大にすることにあるとすれば、最
適な方策は最も高い速度のセッションを転送(redi
rect)することである。所定の接続の統計量が時間
と共に顕著に変化すれば、ある特定のユーザを全体の接
続のために反復的にターゲットにする上記手法は適切で
はなくなる。むしろ、ある時間ttargetの後にターゲッ
トリストまたはファイルからセッションを取り除くよう
にする。これはttargetの時間スケールでの不良サービ
スの連発となってしまうが、高QoS顧客の時分の合計
数を上昇することができる。
If the goal of the service provider is to maximize the number of satisfied customers at any time in time, the optimal strategy is to transfer the highest speed session (redi).
Rect). If the statistics of a given connection change significantly over time, the above approach of repeatedly targeting a particular user for the entire connection may not be appropriate. Rather, the session is removed from the target list or file after some time t target . This results in a series of defective services on the time scale of t target , but can increase the total number of high QoS customers for the hour and minute.

【0052】電気通信取締り機関は前に記載したDQ実
現によって与えられるものよりも、中位の時間スケール
に渡る公平性のより厳密な保証を要求する可能性があ
る。これは、また、転送された接続またはセッションを
記録することによって同様可能となる。この時に、これ
らセッションが再度転送される可能性は小さいものとな
る。同様、達成され得る高QoS顧客の時分の合計数の
トレード・オフが存在する。
Telecommunications enforcement agencies may require more rigorous assurance of fairness over a medium time scale than provided by the previously described DQ implementation. This is also possible by recording the transferred connection or session. At this time, the possibility that these sessions will be transferred again is small. Similarly, there is a trade-off of the total number of minutes of high QoS customers that can be achieved.

【0053】前に述べたLIFO−FIFOシステムを
除いて他のサービス規律がβキューに対して考慮される
としたら、より大きな融通性を与えることが可能とな
る。例えば、βキューは公正待機を用いることが可能と
なろう。Lを、公正共有以下の帯域幅しか必要としない
低速ユーザの組を表すものとする。純粋な公正待機にお
いては、Lのセッションはそれらの全体の帯域幅を割り
当てられ、残りの帯域幅は残りのセッションに割り当て
られる。DQ/FQ混成システムにおいては、時間tで
良好なサービスを受けるように選択されたセッションの
組G(t)はG(t)のユーザへのサービスの後の残留
帯域幅が公正に分割されるようにLの役目を行なう。全
てのtに対してG(t)=1であるならば、すなわちα
キューのサイズがゼロに設定されるならば、この混成手
法は公正待機に縮小する。逆に、G(t)が全てのユー
ザの組であれば、FIFOとなる。しかしながら、G
(t)をLの厳密な超集合にし、その合計の瞬時帯域幅
を出力リンク容量よりも依然として小さくし、どの良く
振舞うユーザにも不利益を与えずに満足する顧客の数を
増大することが往々可能となる。
If other service disciplines are considered for the β queue, except for the previously described LIFO-FIFO system, greater flexibility can be provided. For example, the β queue would be able to use fair wait. Let L denote the set of slow users that require less than fair share bandwidth. In pure fair standby, L sessions are allocated their entire bandwidth, and the remaining bandwidth is allocated to the remaining sessions. In a hybrid DQ / FQ system, the set of sessions G (t) selected to receive good service at time t is fairly divided in residual bandwidth after service to G (t) users. Performs the role of L as described above. If G (t) = 1 for all t, ie, α
If the size of the queue is set to zero, this hybrid approach reduces to fair wait. Conversely, if G (t) is a set of all users, it becomes FIFO. However, G
Making (t) a strict superset of L, keeping the total instantaneous bandwidth still less than the output link capacity, and increasing the number of satisfied customers without penalizing any well-behaved users. Often possible.

【0054】αキューからβキューへのセッションの転
送を開始するスレッショルド超過ベースの方法を用いる
ものとは別態様の実施例として、広範囲の可能なトリガ
ー条件がある。ある例は、αキューに記憶されるデータ
量の増加率が微分ベースのスレッショルドを越えると、
データパケットが第2のバッファ手段に転送されるよう
な微分ベースの手法の使用を含んでいる。ファジイベー
スの手法も使用することができる。従って、αキューに
記憶されるパケットの量が所定の増加率に達すると、セ
ッション(単数または複数)のパケットはβキューに転
送される。
As an alternative to using an over-threshold-based method of initiating the transfer of a session from the α queue to the β queue, there is a wide range of possible trigger conditions. One example is that if the rate of increase in the amount of data stored in the α queue exceeds the derivative-based threshold,
This involves the use of a derivative-based approach in which the data packets are transferred to a second buffer means. Fuzzy based approaches can also be used. Therefore, when the amount of packets stored in the α queue reaches a predetermined increase rate, the packet (s) of the session (s) is transferred to the β queue.

【0055】図16には、出力ポート6あるいはノード
24への出力リンクでのセッションを表すパケットの受
信に関連したステップあるいはプロセスを表す流れ図1
00が示されている。ステップ102で、受信パケット
は時間スタンプが付され、バッファ16および18が時
間に基づいて特定のシーケンスでパケットを収納するこ
とができるようになる。ステップ104で、そのセッシ
ョンに関連した他のパケットがβキュー転送リスト内に
あるかどうかをチェッカが調べるようにされる。βキュ
ーに前のパケットがなければ、ステップ106で、受信
パケットがαキューにあった場合にそれが容量スレッシ
ョルドを越えたかどうかの決定が行なわれる。パケット
が容量スレッショルドを越えなければ、それはステップ
108でαキューに格納され、あるいはそれが容量スレ
ッショルドを越えれば、ステップ110でストリーム識
別子またはセッション識別子がβキュー転送リストに置
かれ、次いでステップ112で次の容量スレッショルド
が使用される。その後、ステップ114でパケットはβ
キューに格納される。ステップ104に戻り、そのセッ
ションからの前のパケットが既にβキュー転送リストに
存在すれば、受信パケットはステップ114でβキュー
に即座に再度格納される。
FIG. 16 is a flow chart 1 illustrating the steps or processes associated with receiving a packet representing a session on an output link to output port 6 or node 24.
00 is shown. At step 102, the received packets are time stamped to allow buffers 16 and 18 to store the packets in a particular sequence based on time. At step 104, the checker is checked to see if other packets associated with the session are in the β queue forwarding list. If there is no previous packet in the β queue, a determination is made at step 106 whether the received packet, if it was in the α queue, has exceeded the capacity threshold. If the packet does not exceed the capacity threshold, it is stored in the α queue at step 108, or if it exceeds the capacity threshold, the stream or session identifier is placed on the β queue transfer list at step 110, and then at step 112 Capacity threshold is used. Then, in step 114, the packet
Stored in the queue. Returning to step 104, if the previous packet from the session is already in the β queue forwarding list, the received packet is immediately re-stored in the β queue in step 114.

【0056】図17には、パケットがβキュー(すなわ
ち、第2のバッファ手段18)からαキュー(すなわ
ち、第1のバッファ手段16)に転送される時に関連し
たプロセスおよびステップを表す流れ図200が示され
る。ステップ202で、βキューにパケットがあるかど
うかの決定が行なわれ、なければ、ステップ204では
何も行なわない。待機するパケットがあれば、ステップ
206で、最旧のパケットがβキューに転送される最新
のセッションから取り出される(LIFO−FIF
O)。ステップ208で、パケットがあまりにも古くt
expireを越えたかどうかの決定が行なわれる。そうであ
れば、パケットはステップ220で廃棄され、ステップ
222でその廃棄されたパケットがそのセッションから
の最後のパケットであったかどうかの決定が行なわれ
る。それが最後のパケットであったら、ステップ224
で、そのパケットに属するセッションはβキュー転送リ
ストから取り除かれ、次いでステップ226で前のαキ
ュー減少スレッショルドが実施される。次いで、プロセ
スはステップ202に戻る。廃棄されたパケットがβキ
ュー内のそのセッションからの最後のパケットではなけ
れば、プロセスは再度ステップ202に戻る。ステップ
208に戻ってこれを参照すると、パケットがあまり古
くなく、texpireによって設定される時間制限内にあれ
ば、パケットはステップ210でαキューに格納され、
ステップ212でその格納されたパケットがβキュー内
のセッションからの最後のパケットであるかどうかの決
定がなされる。それが最後のパケットでなければ、プロ
セスはステップ214で何も行なわない。それがそのセ
ッションに属するβキュー内の最後のパケットであった
ら、ステップ216でセッションはβキュー転送リスト
から取り除かれ、ステップ218で前のαキュー減少ス
レッショルドが実施される。
FIG. 17 is a flowchart 200 illustrating the processes and steps involved when a packet is transferred from a β queue (ie, second buffer means 18) to an α queue (ie, first buffer means 16). Is shown. At step 202, a determination is made whether there is a packet in the β queue, and if not, step 204 does nothing. If there are any packets to wait for, in step 206 the oldest packet is taken from the latest session that is transferred to the β queue (LIFO-FIF).
O). At step 208, if the packet is too old
A determination is made whether expired has been exceeded . If so, the packet is discarded at step 220 and a determination is made at step 222 as to whether the discarded packet was the last packet from the session. If it is the last packet, step 224
, The session belonging to the packet is removed from the β queue forwarding list, and then the previous α queue decrease threshold is enforced at step 226. The process then returns to step 202. If the discarded packet is not the last packet from that session in the β queue, the process returns to step 202 again. Referring back to step 208, if the packet is not too old and within the time limit set by t expire , the packet is stored in the α queue at step 210,
At step 212, a determination is made whether the stored packet is the last packet from a session in the β queue. If it is not the last packet, the process does nothing at step 214. If it is the last packet in the β queue belonging to the session, the session is removed from the β queue forwarding list in step 216 and the previous α queue decrement threshold is enforced in step 218.

【0057】図18には、第3のバッファ手段からのセ
ッションのパケットを第1のバッファ手段に格納するこ
とに関連するプロセスと輻輳の開始時に第1のバッファ
手段でこのようなパケットあるいはセッションを取り扱
う(図4および5を参照)ことに関連するステップを示
すフローチャート300が示されている。入来パケット
は第3のバッファ手段19の出力ポート6の1つで受け
られる。ステップ302で、パケットがパーセッション
キュー21のどれか1つの第3のバッファ手段に一時的
に記憶されたかどうかの検査が行なわれる。パーセッシ
ョンキュー(per‐session queues)
21のどれか1つにパケットが記憶されていれば、ステ
ップ304でパケットは選ばれたスケジュール作成規律
に従ってこれらキューの1つから選択され、次いでステ
ップ306で第1のバッファ手段16あるいは出力キュ
ーに格納される。ステップ308で、選択されたパケッ
トが第1のバッファ手段16の現在の容量スレッショル
ドを越えれば、ステップ310でその特定のパケットが
属する属するセッションが識別され、第2のバッファ手
段18のパーセッションキューの1つにバッファリング
される。再びステップ308で、パケットが現在の容量
スレッショルドを越えなければ、プロセスはステップ3
02に戻る。ステップ312で、第1のバッファ手段1
6に設定されていた次の容量スレッショルドが使用さ
れ、第1のバッファ手段16に入力される更なるパケッ
トに対して評価される。これに関連して、ステップ30
8は、入信パケットが引続いて容量スレッショルドを越
えたかどうかを試験するために反復される。
FIG. 18 shows the process associated with storing session packets from the third buffer means in the first buffer means and the first buffer means such packets or sessions at the beginning of congestion. A flowchart 300 is shown illustrating the steps involved in handling (see FIGS. 4 and 5). An incoming packet is received at one of the output ports 6 of the third buffer means 19. At step 302, a check is made as to whether the packet has been temporarily stored in any one of the third buffer means of the persession queue 21. Per-session queues
If a packet is stored in any one of the queues 21, the packet is selected in step 304 from one of these queues according to the selected scheduling discipline, and then in step 306 to the first buffer means 16 or the output queue. Is stored. If the selected packet exceeds the current capacity threshold of the first buffer means 16 in step 308, the session to which the particular packet belongs is identified in step 310 and the per-session queue of the second buffer means 18 is identified. Buffered into one. Again at step 308, if the packet does not exceed the current capacity threshold, the process proceeds to step 3
Return to 02. In step 312, the first buffer unit 1
The next capacity threshold set at 6 is used and evaluated for further packets entering the first buffer means 16. In this connection, step 30
Step 8 is repeated to test whether the incoming packet has continuously exceeded the capacity threshold.

【0058】ステップ302で、パケットが第3のバッ
ファ手段19に待機していなければ、プロセスはステッ
プ314に移行し、そこで第1のバッファ手段の容量が
減少スレッショルドTabate 以下に低下したかどうかに
ついての決定が行なわれる。そうであったら、ステップ
316でどれかパケットがパーセッションキューのどれ
か1つの第2のバッファ手段に一時的に記憶されている
かどうかについての決定が行なわれる。第1のバッファ
手段の容量がステップ314でTabate以下に低下して
いなかったら、プロセスはステップ302に戻る。ステ
ップ316で、第2のバッファ手段18に待機している
パケットがあれば、第2のバッファ手段を形成する論理
キューの一部として識別される最新のストリームあるい
はセッションからのパケットがステップ318で取り出
される。第2のバッファ手段18に待機しているパケッ
トがなければ、プロセスはステップ302に戻る。ステ
ップ320で、第2のバッファ手段から取り出されたパ
ケットがあまりにも古いかあるいはその時間切れスレッ
ショルドtexpireを越えたかどうかの決定が行なわれ
る。パケットが第2のバッファ手段にあまりにも長く存
在し、その時間切れスレッショルドを越えていたら、パ
ケットはステップ322で廃棄され、あるいはそれがそ
の時間切れスレッショルドを越えていなければ、パケッ
トはステップ324で第1のバッファ手段16に格納さ
れる。次いで、ステップ326で最新の取り出されたパ
ケットが第2のバッファ手段18のパーセッションキュ
ー21のどれか1つに記憶されているその特定のストリ
ームあるいはセッションの最後のパケットであるかどう
かの決定が行なわれる。そうであれば、ストリームは次
いでステップ328で第3のバッファ手段19から生じ
るストリームの一部として識別され、次いでステップ3
30で前の容量スレッショルドが使用されるかあるいは
実施される。ステップ326で最も新しく取り出された
パケットがその特定のストリームあるいはセッションの
最後のパケットでなければ、プロセスはステップ302
に戻る。ステップ330で、前の容量スレッショルドが
実施された後に、プロセスは同様ステップ302に戻
る。
At step 302, if the packet is not waiting in the third buffer means 19, the process proceeds to step 314, where it determines whether the capacity of the first buffer means has fallen below the reduction threshold T abate. Is determined. If so, a determination is made at step 316 as to whether any packets are temporarily stored in any one of the second buffer means in the persession queue. If the capacity of the first buffer means has not fallen below T abate in step 314, the process returns to step 302. If there are any packets waiting in the second buffer means 18 in step 316, the latest stream or packet from the session identified as part of the logical queue forming the second buffer means is retrieved in step 318. It is. If there are no packets waiting in the second buffer means 18, the process returns to step 302. At step 320, a determination is made whether the packet retrieved from the second buffer means is too old or has exceeded its timeout threshold, t expire . If the packet has been in the second buffer means too long and has exceeded its timeout threshold, the packet is discarded at step 322, or if it has not exceeded its timeout threshold, the packet is skipped at step 324. 1 buffer means 16. Then, in step 326, a determination is made as to whether the most recently retrieved packet is the last packet of that particular stream or session stored in any one of the persession queues 21 of the second buffer means 18. Done. If so, the stream is then identified in step 328 as being part of the stream originating from the third buffer means 19 and then
At 30 the previous capacity threshold is used or enforced. If the most recently retrieved packet at step 326 is not the last packet for that particular stream or session, the process proceeds to step 302
Return to At step 330, after the previous capacity threshold has been implemented, the process also returns to step 302.

【0059】上述の好適実施例に対する種々の変更およ
び改造が本発明の範囲および精神から逸脱せずに行ない
得ることも理解されることであろう。
It will also be appreciated that various modifications and adaptations to the preferred embodiment described above can be made without departing from the scope and spirit of the invention.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のシステムおよびシステムを第1の実施
例により実現する電気通信網のパケット交換機あるいは
ノードの概要図である。
FIG. 1 is a schematic diagram of a system and a packet switch or a node of a telecommunications network realizing the system according to a first embodiment.

【図2】第1のバッファ手段のために意図された第2の
バッファ手段のデータパケットのバッファリングを示す
概要図である。
FIG. 2 is a schematic diagram illustrating the buffering of data packets in a second buffer means intended for the first buffer means.

【図3】第1のバッファ手段からの出力リンクでの伝送
のため第2のバッファ手段から第1のバッファ手段への
データパケットの転送を示す概要図である。
FIG. 3 is a schematic diagram illustrating the transfer of a data packet from a second buffer means to a first buffer means for transmission on an output link from the first buffer means.

【図4】本発明のシステムおよびシステムを第2の実施
例により実現する電気通信網のパケット交換機あるいは
ノードの概要図である。
FIG. 4 is a schematic diagram of a system and a packet switch or node of a telecommunications network realizing the system according to a second embodiment of the present invention;

【図5】第1、第2および第3のバッファ手段と図4の
ノードに到達するデータパケットの取扱とを示す概要図
である。
FIG. 5 is a schematic diagram showing first, second and third buffer means and handling of a data packet reaching the node of FIG. 4;

【図6】第1のバッファ手段と第2のバッファ手段とを
有するノードに入力される多数のトラヒックソースをシ
ミュレートするシステムのブロック図である。
FIG. 6 is a block diagram of a system for simulating multiple traffic sources input to a node having first buffer means and second buffer means.

【図7】FIFO、拡張DRRおよびDQシミュレーシ
ョンを用いる多数のセッションのパケット遅延の累積確
率分布を示す一連のプロットである。
FIG. 7 is a series of plots showing the cumulative probability distribution of packet delay for multiple sessions using FIFO, enhanced DRR and DQ simulations.

【図8】FIFO、拡張DRRおよびDQシミュレーシ
ョンを用いる、リンク伝送速度を増加させた多数のセッ
ションのためのシミュレーション時間に対する秒当りの
最大パケット遅延の一連のプロットを示す。
FIG. 8 shows a series of plots of maximum packet delay per second versus simulation time for multiple sessions with increased link transmission rates using FIFO, enhanced DRR and DQ simulations.

【図9】FIFO、拡張DRRおよびDQシミュレーシ
ョンのそれぞれに対する1秒期間で「良好なサービス」
を受ける多数のセッションのプロットである。
FIG. 9: “Good service” in 1 second period for each of FIFO, extended DRR and DQ simulations
7 is a plot of a number of sessions that receive the same.

【図10】全てのセッションが受ける品位低下したサー
ビスのFIFO、拡張DRRおよびDQシミュレーショ
ンのそれぞれのためのプロットを示す。
FIG. 10 shows plots for FIFO, enhanced DRR and DQ simulations of degraded service received by all sessions, respectively.

【図11】ライン伝送速度を減少させた状態での図8に
示されるセッションのそれぞれに対する品位低下した秒
の数を示す拡張DRRおよびDQシミュレーションのそ
れぞれのためのプロットを示す。
FIG. 11 shows plots for each of the extended DRR and DQ simulations showing the number of degraded seconds for each of the sessions shown in FIG. 8 with reduced line rates.

【図12】図9と類似するプロットであるが、ライン伝
送速度を更に一層減少させた状態での図である。
FIG. 12 is a plot similar to FIG. 9, but with the line transmission rate further reduced.

【図13】品位低下した秒を低ライン伝送速度での種々
のセッションの組に対して示す、図9および10に類似
した図である。
FIG. 13 is a view similar to FIGS. 9 and 10 showing degraded seconds for various sets of sessions at low line rates.

【図14】増大させたライン伝送速度で拡張DRRおよ
びDQシミュレーションを用いる種々のセッションの更
に一層の組に対する品位低下した秒を示すプロットであ
る。
FIG. 14 is a plot showing degraded seconds for a further set of various sessions using enhanced DRR and DQ simulations at increased line rates.

【図15】リンク転送速度に標準化した種々の平均提示
ロードに対するFIFO、DRR、拡張DRRおよびD
Qアルゴリズムのための品位低下したパケットの全体の
割合のプロットである。
FIG. 15: FIFO, DRR, extended DRR and D for various average presentation loads normalized to link transfer rate
5 is a plot of the overall percentage of degraded packets for the Q algorithm.

【図16】ノードに関連したリンクでのセッションのパ
ケットの受信に関連したプロセスを示す流れ図である。
FIG. 16 is a flowchart illustrating a process associated with receiving a packet of a session on a link associated with a node.

【図17】パケットが第2のバッファ手段から第1のバ
ッファ手段に転送される時に関連したプロセスを示す流
れ図である。
FIG. 17 is a flow chart showing a process involved when a packet is transferred from the second buffer means to the first buffer means.

【図18】図5の第3のバッファ手段に到達する1つあ
るいはそれ以上のパケットに取扱に関連したプロセスを
示す流れ図である。
FIG. 18 is a flowchart illustrating a process associated with handling one or more packets arriving at the third buffer means of FIG.

【符号の説明】[Explanation of symbols]

2 ノード 16 第1のバッファ手段 18 第2のバッファ手段 2 node 16 first buffer means 18 second buffer means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 デビッド アンドリュー ヘイス オーストラリア国 ビクトリア,パスコエ バル サウス,マックケオン アベニュ ー 2/19 (72)発明者 マイケル ペーター ラムセウィク オーストラリア国 ビクトリア,グレン アイリス,レンウィク ストリート 34 (72)発明者 ラシラン レイスター ヘンリー アンド リュー オーストラリア国 ビクトリア,ワトソニ ア,ブラック ストリート 10 Fターム(参考) 5K030 HA08 KA03 KX11 KX18 LC01 LC18 MB15  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor David Andrew Hays Australia, Victoria, Pascoebar South, MacKeon Avenue 2/19 (72) Inventor Michael Peter Ramsewick Australia, Victoria, Glen Iris, Renwick Street 34 (72) Inventor Lasilane Leister Henry Andrew Australia Victoria, Watsonia, Black Street 10F term (reference) 5K030 HA08 KA03 KX11 KX18 LC01 LC18 MB15

Claims (59)

【特許請求の範囲】[Claims] 【請求項1】 電気通信網にあってデータパケットをス
ケジュール作成する方法において、 1つあるいはそれ以上のセッションを表すデータのパケ
ットを受けて網のノードでの第1のバッファ手段に記憶
するステップと、 上記第1のバッファ手段のパケットの使用容量あるいは
占有率を監視するステップと、 上記第1のバッファ手段が輻輳期間の間でオーバーフロ
ーしないようにするためにトリガー条件の開始時にデー
タパケットを上記ノードでの第2のバッファ手段にバッ
ファリングするステップとを具備することを特徴とする
方法。
1. A method for scheduling a data packet in a telecommunications network, comprising: receiving a packet of data representing one or more sessions and storing it in a first buffer means at a node of the network. Monitoring the used capacity or occupancy of the packet in the first buffer means; and transmitting the data packet to the node at the start of a trigger condition to prevent the first buffer means from overflowing during a congestion period. Buffering the second buffer means in the above.
【請求項2】 請求項1に記載の方法において、上記第
1のバッファ手段あるいは上記第2のバッファ手段のい
ずれかに記憶されているデータパケットが上記第1のバ
ッファ手段から上記ノードに関連したリンクに出力する
ようにしたことを特徴とする方法。
2. The method according to claim 1, wherein a data packet stored in either said first buffer means or said second buffer means is associated with said node from said first buffer means. A method characterized by outputting to a link.
【請求項3】 請求項2に記載の方法において、上記リ
ンクは上記ノードへの出力リンクであることを特徴とす
る方法。
3. The method of claim 2, wherein said link is an output link to said node.
【請求項4】 請求項1から3までの任意の請求項に記
載の方法において、上記パケットを受け、受けたパケッ
トを上記第1のバッファ手段に転送する前に第3のバッ
ファ手段に記憶するステップを更に具備することを特徴
とする方法。
4. The method according to claim 1, wherein the packet is received and the received packet is stored in a third buffer before being transferred to the first buffer. The method further comprising the step of:
【請求項5】 請求項4に記載の方法において、パケッ
トは各パケットが属するセッションに従って記憶され、
スケジュール作成規律に従って上記第3のバッファ手段
から上記第1のバッファ手段に転送されるようにしたこ
とを特徴とする方法。
5. The method of claim 4, wherein the packets are stored according to the session to which each packet belongs.
A method according to claim 4, wherein said data is transferred from said third buffer means to said first buffer means according to a schedule creation rule.
【請求項6】 請求項4または5に記載の方法におい
て、各セッションは上記第2のバッファ手段または上記
第3のバッファ手段のいずれかのパーセッションキュー
に記憶されるそれぞれのパケットを有するようにしたこ
とを特徴とする方法。
6. The method according to claim 4 or 5, wherein each session has a respective packet stored in a persession queue of either the second buffer means or the third buffer means. A method comprising:
【請求項7】 請求項1から6までの任意の請求項に記
載の方法において、上記トリガー状態は、上記第1のバ
ッファ手段に記憶されるデータ量の増加率が微分ベース
のスレッショルドを越える時にデータパケットが上記第
2のバッファ手段にバッファリングされるような微分ベ
ースのスレッショルドとなるようにしたことを特徴とす
る方法。
7. The method according to claim 1, wherein said trigger condition is triggered when a rate of increase in the amount of data stored in said first buffer means exceeds a differential-based threshold. A method wherein the data packet is at a differential based threshold such that it is buffered in said second buffer means.
【請求項8】 請求項1から6までの任意の請求項に記
載の方法において、上記トリガー状態は上記第1のバッ
ファ手段へのデータパケットの到達による上記第1のバ
ッファ手段の最初のあるいはその後の容量スレッショル
ドの超過点にされることを特徴とする方法。
8. The method according to claim 1, wherein the triggering condition is the first or later of the first buffer means due to the arrival of a data packet to the first buffer means. The capacity threshold is exceeded.
【請求項9】 請求項8に記載の方法において、上記最
初およびその後の容量スレッショルドを越える上記第1
のバッファ手段の最初のデータパケットが上記第2のバ
ッファ手段にバッファリングされるようにしたことを特
徴とする方法。
9. The method according to claim 8, wherein said first and subsequent capacity thresholds are exceeded.
The first data packet of said buffer means is buffered in said second buffer means.
【請求項10】 請求項9に記載の方法において、上記
最初のデータパケットが属するセッションの引続いて到
達するパケットが上記第2のバッファ手段にバッファリ
ングされるようにしたことを特徴とする方法。
10. The method according to claim 9, wherein successively arriving packets of the session to which said first data packet belongs are buffered in said second buffer means. .
【請求項11】 請求項8に記載の方法において、上記
第1のバッファ手段の最大のデータパケットを有するセ
ッションが上記1つあるいはそれ以上の容量スレッショ
ルドを上記第1のバッファ手段へのデータパケットの到
達により越える時に上記第2のバッファ手段にバッファ
リングされるようにしたことを特徴とする方法。
11. The method according to claim 8, wherein the session with the largest data packet of the first buffer means sets the one or more capacity thresholds of the data packet to the first buffer means. The method of claim 2 wherein said second buffer means is buffered when exceeding by arrival.
【請求項12】 請求項11に記載の方法において、上
記第1のバッファ手段に記憶される最大のデータパケッ
トを有するセッションのための引続くデータパケットを
上記第2のバッファ手段に転送し、転送されたデータパ
ケットが上記第2のバッファ手段に順に一時的に記憶さ
れるようにするステップを更に含むことを特徴とする方
法。
12. The method according to claim 11, wherein a subsequent data packet for a session having the largest data packet stored in said first buffer means is transferred to said second buffer means, and transferred. Further comprising the step of temporarily storing the stored data packets sequentially in said second buffer means.
【請求項13】 請求項8に記載の方法において、上記
最初またはその後の容量スレッショルドを越えるパケッ
トを有し、かつ上記第2のバッファ手段には一時的に記
憶されないセッションが上記第2のバッファ手段にバッ
ファリングされ、そのセッションから到達する引続くパ
ケットも上記第2のバッファ手段にバッファリングされ
るようにしたことを特徴とする方法。
13. The method of claim 8, wherein the session having a packet exceeding the first or subsequent capacity threshold and not temporarily stored in the second buffer means. And subsequent packets arriving from the session are also buffered in the second buffer means.
【請求項14】 請求項8に記載の方法において、前に
上記第2のバッファ手段に一時的に記憶されたかあるい
はバッファリングされかつ上記第1のバッファ手段にデ
ータパケットを有するセッションが上記最初あるいはそ
の後の容量スレッショルドを越える時に上記第2のバッ
ファ手段にバッファリングされるようにしたことを特徴
とする方法。
14. The method according to claim 8, wherein the session previously stored or buffered temporarily in said second buffer means and having a data packet in said first buffer means is performed in said first or second buffer means. The method of claim 2 wherein said buffer is buffered in said second buffer means when a subsequent capacity threshold is exceeded.
【請求項15】 請求項1から14までの任意の請求項
に記載の方法において、時間切れスレッショルドが上記
第2のバッファ手段に設定され、この時間切れスレッシ
ョルドよりも長く上記第2のバッファ手段に記憶されて
いるどのパケットも廃棄されるようにしたことを特徴と
する方法。
15. The method according to claim 1, wherein a time-out threshold is set in said second buffer means, said time-out threshold being set to said second buffer means being longer than said time-out threshold. A method wherein any stored packets are discarded.
【請求項16】 請求項15に記載の方法において、上
記第2のバッファ手段のオーバフローの開始時に上記第
2のバッファ手段へ新たに到達するデータパケットが廃
棄されるようにしたことを特徴とする方法。
16. The method according to claim 15, wherein a data packet newly arriving at said second buffer means is discarded at the start of overflow of said second buffer means. Method.
【請求項17】 請求項1から16までの任意の請求項
に記載の方法において、上記第2のバッファ手段に記憶
されるデータパケットが表すストリームの形式に従って
時間切れスレッショルドが上記第2のバッファ手段に設
定され、それらそれぞれの時間切れスレッショルドより
も長く上記第2のバッファ手段に記憶されているどのパ
ケットも廃棄されるようにしたことを特徴とする方法。
17. The method according to claim 1, wherein a time-out threshold is set according to a type of a stream represented by a data packet stored in the second buffer means. And any packets stored in said second buffer means longer than their respective timeout thresholds are discarded.
【請求項18】 請求項15または17に記載の方法に
おいて、上記第2のバッファ手段のオーバーフローの開
始時、上記第2のバッファ手段に記憶されている最も古
いパケットが上記第2のバッファ手段から廃棄されるよ
うにしたことを特徴とする方法。
18. The method according to claim 15, wherein at the start of the overflow of the second buffer means, the oldest packet stored in the second buffer means is removed from the second buffer means. A method characterized by being disposed of.
【請求項19】 請求項1から18までの任意の請求項
に記載の方法において、この方法が、上記第1のバッフ
ァ手段の占有率が減少スレッショルドよりも小さいかあ
るいはそれと等しい時に上記第2のバッファ手段に保持
されているデータパケットを上記第1のバッファ手段に
転送することを更に含むことを特徴とする方法。
19. The method according to any one of claims 1 to 18, wherein the method further comprises: when the occupancy of the first buffer means is less than or equal to a decreasing threshold. The method further comprising forwarding the data packets held in the buffer means to the first buffer means.
【請求項20】 請求項19に記載の方法において、特
定のセッションからのパケットが上記第2のバッファ手
段に記憶されていない時にその特定のセッションからの
引続いて到達するパケットが上記第1のバッファ手段に
記憶されるようにしたことを特徴とする方法。
20. The method according to claim 19, wherein when a packet from a particular session is not stored in said second buffer means, a subsequently arriving packet from said particular session is said first packet. A method characterized by being stored in a buffer means.
【請求項21】 請求項19に記載の方法において、パ
ケットが先入れ先出し(FIFO)基準で上記第2のバ
ッファ手段から上記第1のバッファ手段に転送され、パ
ケットが第2のバッファ手段に到達した順序でパケット
が転送されるようにしたことを特徴とする方法。
21. The method according to claim 19, wherein packets are transferred from said second buffer means to said first buffer means on a first-in first-out (FIFO) basis, and the order in which packets arrive at said second buffer means. The method according to claim 1, wherein the packet is forwarded.
【請求項22】 請求項19に記載の方法において、各
セッションからのパケットがFIFO−FIFO基準で
上記第2のバッファ手段から上記第1のバッファ手段に
転送され、それにより上記第2のバッファ手段に最初に
記録されるようにされたセッションが上記第1のバッフ
ァ手段に最初に転送されるようにし、転送された各セッ
ション内でパケットが上記第2のバッファ手段に到着し
た順序でパケットが転送されるようにしたことを特徴と
する方法。
22. The method according to claim 19, wherein packets from each session are transferred from said second buffer means to said first buffer means on a FIFO-FIFO basis, whereby said second buffer means. The first recorded session is transferred to the first buffer means first, and the packets are transferred in the order in which the packets arrived at the second buffer means in each transferred session. A method characterized by being performed.
【請求項23】 請求項19に記載の方法において、各
セッションからのパケットがLIFO−FIFO基準で
上記第2のバッファ手段から上記第1のバッファ手段に
転送され、それにより上記第2のバッファ手段へは最後
であったセッションが最初に転送され、各セッション内
でパケットが上記第2のバッファ手段到着した順序でパ
ケットが転送されるようにしたことを特徴とする方法。
23. The method according to claim 19, wherein packets from each session are transferred from said second buffer means to said first buffer means on a LIFO-FIFO basis, whereby said second buffer means. The last session is transferred first, and the packets are transferred in the order in which the packets arrive in the second buffer means in each session.
【請求項24】 請求項19に記載の方法において、パ
ケットが公平待機システムを用いて転送され、上記第2
のバッファ手段に記憶されるデータパケットのセッショ
ンが上記第1のバッファ手段に記憶されたセッションに
よって残された残留帯域幅を持つようにしたことを特徴
とする方法。
24. The method according to claim 19, wherein the packet is forwarded using a fair standby system, and
A session of data packets stored in said buffer means having a residual bandwidth left by said session stored in said first buffer means.
【請求項25】 請求項21から24までの任意の請求
項に記載の方法において、転送される各セッションから
のパケットの数が記録されるようにしたことを特徴とす
る方法。
25. A method as claimed in any one of claims 21 to 24, wherein the number of packets from each transferred session is recorded.
【請求項26】 請求項1から25までの任意の請求項
に記載の方法において、上記第2のバッファ手段に記憶
されかつバッファリングされる各データパケットに時間
スタンプを付与することを含むことを特徴とする方法。
26. A method as claimed in any one of claims 1 to 25, comprising: attaching a time stamp to each data packet stored and buffered in said second buffer means. Features method.
【請求項27】 請求項1から26までの任意の請求項
に記載の方法において、あるセッションに属し上記第2
のバッファ手段に記憶されている1つあるいはそれ以上
のパケットを与えることを含んでおり、上記1つあるい
はそれ以上のパケットがそれを受ける上記網の他のノー
ドにこのようなセッションがそう記録されたことを確認
させる識別ラベルを備えるようにしたことを特徴とする
方法。
27. The method according to any one of claims 1 to 26, wherein the second
Providing one or more packets stored in the buffer means of the network, wherein the session is so recorded at another node of the network where the one or more packets are received. A method of providing an identification label for confirming that the operation has been completed.
【請求項28】 電気通信網にあってデータパケットを
スケジュール作成するシステムにおいて、 上記網のノードに配置され、1つあるいはそれ以上のセ
ッションを表すデータパケットを受ける第1のバッファ
手段と、 上記網の上記ノードに配置された第2のバッファ手段
と、 を具備し、輻輳期間の間で上記第1のバッファ手段のオ
ーバーフローを回避するようにトリガー条件の開始時に
データパケットが上記第2のバッファ手段にバッファリ
ングされるようにしたことを特徴とするシステム。
28. A system for scheduling data packets in a telecommunications network, comprising: first buffer means located at a node of the network for receiving data packets representing one or more sessions; Second buffer means located at the node of the first buffer means, wherein a data packet is transmitted to the second buffer means at the start of a trigger condition so as to avoid overflow of the first buffer means during a congestion period. The system characterized by being buffered.
【請求項29】 請求項28に記載のシステムにおい
て、上記第1のバッファ手段あるいは上記第2のバッフ
ァ手段のいずれかのデータパケットが上記第1のバッフ
ァ手段から上記ノードに関連したリンクに出力するよう
にしたことを特徴とするシステム。
29. The system according to claim 28, wherein a data packet of either said first buffer means or said second buffer means is output from said first buffer means to a link associated with said node. A system characterized in that:
【請求項30】 請求項29に記載のシステムにおい
て、上記リンクは上記ノードへの出力リンクであること
を特徴とするシステム。
30. The system according to claim 29, wherein said link is an output link to said node.
【請求項31】 請求項28から30までの任意の請求
項に記載のシステムにおいて、受けたパケットを上記第
1のバッファ手段に転送する前に上記データパケットを
受ける第3のバッファ手段を更に具備するようにしたこ
とを特徴とするシステム。
31. The system according to claim 28, further comprising a third buffer means for receiving the data packet before transferring the received packet to the first buffer means. A system characterized by doing so.
【請求項32】 請求項31に記載のシステムにおい
て、上記データパケットは各パケットが属するセッショ
ンに従って上記第3のバッファ手段に記憶され、スケジ
ュール作成規律に従って上記第3のバッファ手段から上
記第1のバッファ手段に転送されるようにしたことを特
徴とするシステム。
32. The system according to claim 31, wherein said data packets are stored in said third buffer means according to a session to which each packet belongs, and said data packets are stored in said third buffer means according to a schedule creation rule. A system characterized by being transferred to a means.
【請求項33】 請求項31または32に記載のシステ
ムにおいて、各セッションは上記第2のバッファ手段ま
たは上記第3のバッファ手段のいずれかのパーセッショ
ンキューに記憶されるそれぞれのパケットを有するよう
にしたことを特徴とするシステム。
33. The system according to claim 31, wherein each session has a respective packet stored in a persession queue of either the second buffer means or the third buffer means. A system characterized by:
【請求項34】 請求項28から33までの任意の請求
項に記載のシステムにおいて、上記トリガー状態は、上
記第1のバッファ手段に記憶されるデータ量の増加率が
微分ベースのスレッショルドを越える時にデータパケッ
トが上記第2のバッファ手段にバッファリングされるよ
うな微分ベースのスレッショルドとなるようにしたこと
を特徴とするシステム。
34. The system according to any of claims 28 to 33, wherein the trigger condition is when the rate of increase in the amount of data stored in the first buffer means exceeds a derivative-based threshold. A system according to any of the preceding claims, wherein the data packet is at a differential-based threshold such that it is buffered in said second buffer means.
【請求項35】 請求項28から33までの任意の請求
項に記載のシステムにおいて、上記トリガー状態は上記
第1のバッファ手段へのデータパケットの到達による上
記第1のバッファ手段の最初のあるいはその後の容量ス
レッショルドの超過点にされることを特徴とするシステ
ム。
35. The system according to any one of claims 28 to 33, wherein the trigger condition is the first or later of the first buffer means due to the arrival of a data packet to the first buffer means. A system wherein the capacity threshold is exceeded.
【請求項36】 請求項35に記載のシステムにおい
て、上記最初およびその後の容量スレッショルドを越え
る上記第1のバッファ手段の最初のデータパケットが上
記第2のバッファ手段にバッファリングされるようにし
たことを特徴とするシステム。
36. The system according to claim 35, wherein a first data packet of said first buffer means exceeding said first and subsequent capacity thresholds is buffered in said second buffer means. A system characterized by the following.
【請求項37】 請求項36に記載のシステムにおい
て、上記最初のデータパケットが属するセッションの引
続いて到達するパケットが上記第2のバッファ手段にバ
ッファリングされるようにしたことを特徴とするシステ
ム。
37. The system according to claim 36, wherein successively arriving packets of the session to which said first data packet belongs are buffered in said second buffer means. .
【請求項38】 請求項35に記載のシステムにおい
て、上記第1のバッファ手段の最大のデータパケットを
有するセッションが上記1つあるいはそれ以上の容量ス
レッショルドを上記第1のバッファ手段へのデータパケ
ットの到達により越える時に上記第2のバッファ手段に
バッファリングされるようにしたことを特徴とするシス
テム。
38. The system according to claim 35, wherein the session with the largest data packet of the first buffer means sets the one or more capacity thresholds of the data packet to the first buffer means. A system for buffering the second buffer means when exceeding by arrival.
【請求項39】 請求項38に記載のシステムにおい
て、上記第1のバッファ手段に最大のデータパケットを
有するセッションに属する引続くデータパケットを上記
第2のバッファ手段に転送し、上記第2のバッファ手段
に順に一時的に記憶されるようにすることを特徴とする
システム。
39. The system according to claim 38, wherein subsequent data packets belonging to a session having the largest data packet in said first buffer means are transferred to said second buffer means, and said second buffer means A system characterized by being temporarily stored in the means in order.
【請求項40】 請求項35に記載のシステムにおい
て、上記最初またはその後の容量スレッショルドを越え
るパケットを有しかつ上記第2のバッファ手段には一時
的に記憶されないセッションが上記第2のバッファ手段
にバッファリングされ、そのセッションから到達する引
続くパケットも上記第2のバッファ手段にバッファリン
グされるようにしたことを特徴とするシステム。
40. The system according to claim 35, wherein a session having a packet exceeding the initial or subsequent capacity threshold and not temporarily stored in the second buffer means is stored in the second buffer means. A system wherein the buffered and subsequent packets arriving from the session are also buffered in the second buffer means.
【請求項41】 請求項35に記載のシステムにおい
て、前に上記第2のバッファ手段に一時的に記憶された
かあるいはバッファリングされかつ上記第1のバッファ
手段にデータパケットを有するセッションが上記最初あ
るいはその後の容量スレッショルドを越える時に上記第
2のバッファ手段にバッファリングされるようにしたこ
とを特徴とするシステム。
41. The system according to claim 35, wherein the session previously stored or buffered temporarily in the second buffer means and having data packets in the first buffer means is the first or the first. A system wherein the buffer is buffered in the second buffer means when a subsequent capacity threshold is exceeded.
【請求項42】 請求項28から41までの任意の請求
項に記載のシステムにおいて、時間切れスレッショルド
が上記第2のバッファ手段に設定され、この時間切れス
レッショルドよりも長く上記第2のバッファ手段に記憶
されているどのパケットも廃棄されるようにしたことを
特徴とするシステム。
42. The system according to any one of claims 28 to 41, wherein a timeout threshold is set in said second buffer means, said timeout threshold being set to said second buffer means being longer than said timeout threshold. A system wherein any stored packets are discarded.
【請求項43】 請求項42に記載のシステムにおい
て、上記第2のバッファ手段のオーバフローの開始時に
上記第2のバッファ手段へ新たに到達するデータパケッ
トが廃棄されるようにしたことを特徴とするシステム。
43. The system according to claim 42, wherein a data packet newly arriving at said second buffer means is discarded at the start of overflow of said second buffer means. system.
【請求項44】 請求項28から43までの任意の請求
項に記載のシステムにおいて、上記第2のバッファ手段
に記憶されるデータパケットが表すストリームの形式に
従って時間切れスレッショルドが上記第2のバッファ手
段に設定され、それらそれぞれの時間切れスレッショル
ドよりも長く上記第2のバッファ手段に記憶されている
どのパケットも廃棄されるようにしたことを特徴とする
システム。
44. The system according to any one of claims 28 to 43, wherein the time-out threshold is set according to the type of stream represented by the data packet stored in said second buffer means. And any packets stored in said second buffer means longer than their respective timeout thresholds are discarded.
【請求項45】 請求項42または44に記載のシステ
ムにおいて、上記第2のバッファ手段のオーバーフロー
の開始時、上記第2のバッファ手段に記憶されている最
も古いパケットが上記第2のバッファ手段から廃棄され
るようにしたことを特徴とするシステム。
45. The system according to claim 42 or 44, wherein at the start of overflow of said second buffer means, the oldest packet stored in said second buffer means is removed from said second buffer means. A system characterized by being discarded.
【請求項46】 請求項28から45までの任意の請求
項に記載のシステムにおいて、上記第1のバッファ手段
の占有率が減少スレッショルドよりも小さいかあるいは
それと等しい時に上記第2のバッファ手段に保持されて
いるデータパケットが上記第1のバッファ手段に転送さ
れるようにしたことを特徴とするシステム。
46. A system as claimed in any one of claims 28 to 45, wherein said first buffer means retains in said second buffer means when the occupancy is less than or equal to a decreasing threshold. The data packet being transferred is transferred to the first buffer means.
【請求項47】 請求項46に記載のシステムにおい
て、特定のセッションからのパケットが上記第2のバッ
ファ手段に記憶されていない時にそのセッションからの
引続いて到達するパケットが上記第1のバッファ手段に
記憶されるようにしたことを特徴とするシステム。
47. The system according to claim 46, wherein when a packet from a particular session is not stored in said second buffer means, a subsequently arriving packet from that session is transmitted to said first buffer means. A system characterized by being stored in a memory.
【請求項48】 請求項46に記載のシステムにおい
て、パケットが先入れ先出し(FIFO)基準で上記第
2のバッファ手段から上記第1のバッファ手段に転送さ
れ、パケットが第2のバッファ手段に到達した順序でパ
ケットが転送されるようにしたことを特徴とするシステ
ム。
48. The system according to claim 46, wherein packets are transferred from said second buffer means to said first buffer means on a first-in first-out (FIFO) basis, and the order in which packets arrive at said second buffer means. The system is characterized in that the packet is forwarded by:
【請求項49】 請求項46に記載のシステムにおい
て、各セッションからのパケットがFIFO−FIFO
基準で上記第2のバッファ手段から上記第1のバッファ
手段に転送され、それにより上記第2のバッファ手段に
最初に記録されるようにされたセッションが上記第1の
バッファ手段に最初に転送されるようにし、転送された
各セッション内でパケットが上記第2のバッファ手段に
到着した順序でパケットが転送されるようにしたことを
特徴とするシステム。
49. The system according to claim 46, wherein the packets from each session are FIFO-FIFO
A session transferred by reference from the second buffer means to the first buffer means, whereby the session first recorded in the second buffer means is first transferred to the first buffer means. Wherein the packets are transferred in the order in which the packets arrive in the second buffer means in each transferred session.
【請求項50】 請求項46に記載のシステムにおい
て、各セッションからのパケットがLIFO−FIFO
基準で上記第2のバッファ手段から上記第1のバッファ
手段に転送され、それにより上記第2のバッファ手段へ
は最後であったセッションが最初に転送され、各セッシ
ョン内でパケットが上記第2のバッファ手段到着した順
序でパケットが転送されるようにしたことを特徴とする
システム。
50. The system according to claim 46, wherein the packets from each session are LIFO-FIFO.
By reference, the second buffer means is forwarded to the first buffer means, whereby the last session is forwarded to the second buffer means first, and within each session packets are transferred to the second buffer means. A system wherein packets are transferred in the order in which the buffer means arrives.
【請求項51】 請求項46に記載のシステムにおい
て、パケットが公平待機システムを用いて転送され、上
記第2のバッファ手段に記憶されるデータパケットのセ
ッションが上記第1のバッファ手段に記憶されたセッシ
ョンによって残された残留帯域幅を持つようにしたこと
を特徴とするシステム。
51. The system of claim 46, wherein packets are transferred using a fair standby system, and sessions of data packets stored in said second buffer means are stored in said first buffer means. A system having a residual bandwidth left by a session.
【請求項52】 請求項48から51までの任意の請求
項に記載のシステムにおいて、転送される各セッション
からのパケットの数が記録されるようにしたことを特徴
とするシステム。
52. The system according to any one of claims 48 to 51, wherein the number of packets from each transferred session is recorded.
【請求項53】 請求項28から52までの任意の請求
項に記載のシステムにおいて、上記第2のバッファ手段
に記憶されかつバッファリングされる各データパケット
に時間スタンプが付与されるようにしたことを特徴とす
るシステム。
53. A system according to any one of claims 28 to 52, wherein each data packet stored and buffered in said second buffer means is time stamped. A system characterized by the following.
【請求項54】 請求項28から53までの任意の請求
項に記載のシステムにおいて、あるセッションに属し上
記第2のバッファ手段に記憶されている1つあるいはそ
れ以上のパケットを与えることを含んでおり、上記1つ
あるいはそれ以上のパケットがそれを受ける上記網の他
のノードにこのようなセッションがそう記録されたこと
を確認させる識別ラベルを備えるようにしたことを特徴
とするシステム。
54. The system according to any one of claims 28 to 53, comprising providing one or more packets belonging to a session and stored in said second buffer means. And wherein the one or more packets are provided with an identification label that identifies to another node of the network that the packet is received that such a session has been recorded.
【請求項55】 請求項28から54までの任意の請求
項に記載のシステムにおいて、上記第1のバッファ手段
はFIFOバッファであることを特徴とするシステム。
55. The system according to any one of claims 28 to 54, wherein said first buffer means is a FIFO buffer.
【請求項56】 請求項28に記載のシステムにおい
て、上記第1のバッファ手段および上記第2のバッファ
手段は1つあるいはそれ以上のパーセッションキューか
ら構成され、上記トリガー状態は上記第1のバッファ手
段の最初あるいはその後の容量スレッショルドの超過点
であり、上記第1のバッファ手段のキューに記憶される
個々のセッションの容量の和が所定のスレッショルドを
越えるようにされたことを特徴とするシステム。
56. The system according to claim 28, wherein said first buffer means and said second buffer means comprise one or more persession queues, and wherein said trigger condition is said first buffer. A system wherein the capacity threshold is exceeded at the beginning of or after the means, wherein the sum of the capacities of the individual sessions stored in the queue of the first buffer means exceeds a predetermined threshold.
【請求項57】 請求項28から56までの任意の請求
項によるデータパケットをスケジュール作成するシステ
ムを有するパケット交換網のパケット交換機において、 それぞれの情報源から伝送されるデータパケットを受け
る1つあるいはそれ以上のポートを具備しており、 上記1つあるいはそれ以上のポートは上記パケットを上
記網の他のノードに回送し、 上記1つあるいはそれ以上のポートのそれぞれは上記第
1のバッファ手段と上記第2のバッファ手段とを含んで
いることを特徴とするパケット交換機。
57. A packet switch in a packet switched network having a system for scheduling data packets according to any one of claims 28 to 56, wherein one or more of the data switches receive data packets transmitted from respective information sources. The one or more ports forward the packet to another node of the network, wherein each of the one or more ports includes the first buffer means and the And a second buffer means.
【請求項58】 電気通信サービス提供者によって設定
されるサービス基準の品位に従って、電気通信網にあっ
て1つあるいはそれ以上のセッションを表すパケットを
スケジュール作成するデータパケットスケジュール作成
システムにおいて、 上記電気通信網で伝送される1つあるいはそれ以上のセ
ッションのデータパケットを受けて一時的に記憶する第
1のバッファ手段と、 上記第1のバッファ手段が網の輻輳期間の間にオーバー
フローしないように、上記第1のバッファ手段へのデー
タパケットの到達による上記第1のバッファ手段に設定
されたトリガー状態の開始時にデータパケットをバッフ
ァリングするようにした第2のバッファ手段と、を具備
することを特徴とするデータパケットスケジュール作成
システム。
58. A data packet scheduling system for scheduling packets representing one or more sessions in a telecommunications network according to the quality of a service standard set by a telecommunications service provider. First buffer means for receiving and temporarily storing data packets of one or more sessions transmitted on the network, and wherein the first buffer means does not overflow during a network congestion period. A second buffer means for buffering the data packet at the start of the trigger state set in the first buffer means due to the arrival of the data packet in the first buffer means. Data packet schedule creation system.
【請求項59】 添付図面に関連して以下に記載される
ようなデータパケットをスケジュール作成する方法およ
びシステム。
59. A method and system for scheduling data packets as described below with reference to the accompanying drawings.
JP36600798A 1998-11-17 1998-11-17 Method and system for scheduling data packets in a telecommunications network Expired - Lifetime JP4104756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP36600798A JP4104756B2 (en) 1998-11-17 1998-11-17 Method and system for scheduling data packets in a telecommunications network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP36600798A JP4104756B2 (en) 1998-11-17 1998-11-17 Method and system for scheduling data packets in a telecommunications network

Publications (3)

Publication Number Publication Date
JP2000165447A true JP2000165447A (en) 2000-06-16
JP2000165447A5 JP2000165447A5 (en) 2006-02-02
JP4104756B2 JP4104756B2 (en) 2008-06-18

Family

ID=18485685

Family Applications (1)

Application Number Title Priority Date Filing Date
JP36600798A Expired - Lifetime JP4104756B2 (en) 1998-11-17 1998-11-17 Method and system for scheduling data packets in a telecommunications network

Country Status (1)

Country Link
JP (1) JP4104756B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084322A (en) * 2000-07-27 2002-03-22 Roke Manor Research Ltd Switching device multicast traffic bandwidth allocation method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002084322A (en) * 2000-07-27 2002-03-22 Roke Manor Research Ltd Switching device multicast traffic bandwidth allocation method

Also Published As

Publication number Publication date
JP4104756B2 (en) 2008-06-18

Similar Documents

Publication Publication Date Title
CA2168485C (en) A delay-minimizing system with guarenteed bandwidth delivery for real-time traffic
US7042843B2 (en) Algorithm for time based queuing in network traffic engineering
US8467295B2 (en) System and methods for distributed quality of service enforcement
US7016366B2 (en) Packet switch that converts variable length packets to fixed length packets and uses fewer QOS categories in the input queues that in the outout queues
US7123622B2 (en) Method and system for network processor scheduling based on service levels
US6377546B1 (en) Rate guarantees through buffer management
KR100933917B1 (en) Bandwidth guarantee and overload protection method in network switch
CA2227244C (en) A method for supporting per-connection queuing for feedback-controlled traffic
US6674718B1 (en) Unified method and system for scheduling and discarding packets in computer networks
US6795870B1 (en) Method and system for network processor scheduler
JP2004266389A (en) Packet transfer control method and packet transfer control circuit
US6985442B1 (en) Technique for bandwidth sharing in internet and other router networks without per flow state record keeping
Hayes et al. Quality of service driven packet scheduling disciplines for real-time applications: looking beyond fairness
KR20020079904A (en) Unified algorithm for frame scheduling and buffer management in differentiated services networks
JP4104756B2 (en) Method and system for scheduling data packets in a telecommunications network
KR100959397B1 (en) Packet scheduling device
CA2271669A1 (en) Method and system for scheduling packets in a telecommunications network
CN119011502B (en) Deterministic network dynamic bandwidth reservation method and device
JP3981819B2 (en) Dynamic queuing buffer control method and system
JP3903840B2 (en) Packet forwarding system
Tawfeeq Network Congestion and Quality of Service Analysis Using OPNET
JP3917830B2 (en) Rate control device
JP3813473B2 (en) Packet discard device
Adeogun The Use of Internet Speed (Bandwidth) & Network Performance Analysis
JP2003023454A (en) Rate control device

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051115

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070928

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20071225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20071228

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080128

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080229

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080326

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term