ArticlePDF Available

Dynamic Transmission Rate Allocation in Packet Networks Using Recorrent Neural Networks Trained with Real Time Algorithm

Authors:

Abstract and Figures

In this paper recurrent neural networks are considered to realize traffic prediction in computer network. The transmission rate that must be allocated in order to prevent byte losses and to get an efficient network use is estimated in real time. For such, recurrent neural networks were trained with real time learning algorithms: RTRL (Real Time Recurrent Learning) and extended Kalman filter. The algorithms are applied in the dynamic transmission rate allocation in a network link, verifying its efficiencies in the traffic prediction and control.
Content may be subject to copyright.
Alocação Dinâmica de Taxa de Transmissão em
Redes de Pacotes Utilizando Redes Neurais
Recorrentes Treinadas com Algoritmos em
Tempo Real
Flávio Henrique Teles Vieira, Rodrigo Pinto Lemos, Member, IEEE e Luan Ling Lee, Member, IEEE
Resumo— Propõe-se neste artigo o uso de redes neurais
recorrentes para realizar predição de tráfego em redes de
computadores. Estima-se em tempo real a taxa de transmissão
que deve ser disponibilizada a fim de se evitar perdas de bytes a
uma eficiente utilização da rede. Para tal, redes neurais
recorrentes foram treinadas com algoritmos de aprendizagem em
tempo real: RTRL (Real Time Recurrent Learning) e filtro de
Kalman estendido. Os algoritmos foram aplicados na alocação
dinâmica de taxa de transmissão em um enlace de rede,
verificando as suas eficiências na predição e controle de tráfego.
Palavras-chave Predição, Controle, Taxa, Tráfego, Redes
Neurais.
I. INTRODUÇÃO
Aintegração de serviços nas redes de comunicação traz a
necessidade de gerenciar tráfegos com diferentes
requisitos de qualidade de serviço e com características
complexas. A modelagem adequada do tráfego oferecido à
rede é importante para o desenvolvimento de estratégias de
alocação eficiente de recursos e de controle.
Diversos estudos apontam a importância da auto-
similaridade nos dados de tráfego de redes de computadores
[1]-[2]-[3], assim como suas propriedades multifractais [4]. A
auto-similaridade introduz dificuldades na otimização do
desempenho da rede e na garantia de qualidade de serviço por
causar impactos significativos no atraso e no aumento de taxa
de perda de pacotes [5]-[6]-[7]. Um efeito da auto-
similaridade é que os buffers localizados nos multiplexadores
e comutadores devem ser maiores, conduzindo a atrasos.
Portanto, as implicações principais no desempenho da rede
devido ao tráfego auto-similar são períodos concentrados de
congestionamento e amplificada perda e atraso de pacotes.
Normalmente, um aumento linear no tamanho do buffer
produz uma diminuição exponencial na perda de pacotes e um
aumento efetivo do uso da capacidade de transmissão, porém
com tráfego auto-similar essas propriedades não funcionam
[1].
Flávio Henrique Teles Vieira e Luan Ling Lee pertencem ao
Departamento de Comunicações da Faculdade de Engenharia Elétrica e
Computação da Universidade Estadual de Campinas (FEEC-UNICAMP), São
Paulo, Brasil. E-mails: {flavio,lee@decom.fee.unicamp.br}.
Rodrigo Pinto Lemos pertence a Escola de Engenharia Elétrica da
Universidade Federal de Goiás (UFG), Goiânia, GO, Brasil. Email:
{lemos@eee.ufg.br}
Tráfego com rajadas multiescala implica na existência de
períodos concentrados de alta atividade em diferentes escalas
de tempo, causando uma degradação linear na perda de
pacotes e superlinear para o atraso de pacote. Quanto mais o
tráfego apresenta distribuição heavy tailed mais se degradam
parâmetros como perda de pacotes e taxa de retransmissão.
Uma descoberta importante é que quanto maior a carga em
uma rede Ethernet, maior o grau de auto-similaridade do
tráfego [8]. Como a tendência é de se encontrar redes cada vez
maiores com aplicações interativas e multimídias diversas na
composição do tráfego, os problemas se agravarão.
Aumentando-se as rajadas auto-similares do tráfego ocorre um
aumento da ocupação do buffer para vários tamanhos de
buffer, resultando em atraso. Há uma relação entre perda de
pacotes e atraso, se diminui um, aumenta o outro, o que
implica que qualidade de serviço fica mais difícil de ser
garantida para tráfego em rajadas. Como também períodos
de baixa intensidade de tráfego, a alocação de uma taxa única
para o tráfego além de levar a uma sub-utilização da rede pode
levar a perdas significativas para tráfego auto-similar.
Sugerimos portanto, o uso de redes neurais recorrentes
treinadas em tempo real para se efetuar alocação dinâmica de
taxa de transmissão.
O controle de congestionamento deve então tentar
contornar os problemas trazidos pela auto-similaridade. O
controle de congestionamento pode ser preventivo, em que
ações são tomadas baseadas principalmente no contrato de
tráfego, além de ações como: policiamento de usuários,
controle de prioridades e formatação de tráfego. Porém,
quando o processo é de longa dependência é difícil garantir
que o tráfego respeite o contrato realizado na admissão da
conexão. Daí a necessidade de um monitoramento constante
do tráfego e de um controle preditivo. Além do mais, o
algoritmo leaky bucket como método de policiamento não é
uma solução satisfatória para tráfego auto-similar [9].
Neste trabalho propomos o uso de algoritmos capazes de
fazer predições em tráfego real. Para validação dos algoritmos
foram utilizados traços de tráfego reais Ethernet retiradas das
70 IEEE LATIN AMERICA TRANSACTIONS, VOL. 1, NO. 1, OCTOBER 2003
medições da Bellcore1que apresentam características auto-
similares e multifractais. A fim de obtermos estruturas que não
dependam do conhecimento do modelo mais adequado ao
tráfego utilizamos redes neurais recorrentes para sua predição
e controle automático.
II. ALOCAÇÃO DINÂMICA DE TAXA DE TRANSMISSÃO
Em geral, o tráfego em redes de alta velocidade é
complexo, não-linear e não-estacionário. Uma proposta
interessante é a da alocação dinâmica de recursos [10]-[11]. A
idéia é estimar a taxa de transmissão necessária para garantir a
transmissão do tráfego em intervalos regulares (Figura 1), uma
vez que o uso de uma taxa fixa de serviço para tráfego com
cauda pesada e altamente correlacionado pode causar
excessiva perda de pacotes caso esta taxa não esteja próxima
ao pico de tráfego [12]. Diferentemente de alguns trabalhos
onde se muda a taxa da fonte, objetiva-se aqui adaptação de
taxa da rede (enlace)[13]-[14].
Se de um lado uma maior eficiência de transmissão dos
enlaces da rede pode ser atingida por adaptação freqüente da
taxa de transmissão, temos que esta freqüência de adaptação
está limitada pelo tempo de processamento do protocolo de
controle da rede. Para tráfego de vídeo foi observado que as
mudanças nas cenas estão na escala temporal de 1 segundo ou
mais, sendo assim, a taxa de transmissão precisa ser adaptada
dentro de um intervalo de algumas centenas de milisegundos
[10].
Em uma rede ATM por exemplo, a demanda de taxa de
transmissão em um circuito virtual (VC) pode ser acomodada
por vários protocolos. No nível de enlace, há esquemas de
particionamento de capacidade entre VCs, descarte de células
com baixa prioridade. No nível de rede, esquemas de
roteamento podem ser usados para obter taxa extra, sem violar
a qualidade de serviço de outros VCs.
Fig.1. Divisão do tempo para alocação de taxa
Para o esquema de alocação dinâmica de taxa proposto, seja
o período de amostragem do sinal de tráfego, a taxa de
transmissão será adaptada em intervalos de M' (Figura 1) ou
seja M intervalos de tempo discreto n, para um valor igual a:
'
1 http://www.acm.org/sigcomm/ITA
M}D...,1,DD,l),(nx
ˆ
max{tx lG (1)
onde )(nx
ˆlé o valor predito de tráfego a l instantes de
tempo a frente e G será descrito posteriormente.
O intervalo de adaptação de taxa é composto pelo o tempo
de computação do algoritmo de predição (treinamento da rede
neural ou intervalo de observação) e D ', tempo de
processamento do protocolo de alocação. Para tal sistema
propomos a utilização de dois algoritmos de predição: redes
neurais treinadas com filtros de Kalman estendido e algoritmo
RTRL (Real Time Recurrent Learning), os quais
proporcionam operação em tempo real, visando um controle
adaptativo e contínuo da taxa de transmissão.
III. REDES NEURAIS RECORRENTES
Redes neurais artificiais têm sido bastante empregadas na
predição e identificação de séries temporais [15]-[16]-[17]. A
rede neural MLP (Multilayer Perceptron) é a mais utilizada
dentre as redes neurais existentes, apesar de usar um
mapeamento entrada-saída estático.
O interesse em redes neurais recorrentes está no seu
processamento temporal e na sua capacidade de implementar
memórias adaptativas [18]. A rede neural recorrente deve
aprender a extrair informação relevante do passado da
seqüência contínua e variante de entrada e computar uma
saída relativa a um valor futuro dos dados de entrada. As redes
recorrentes possuem estados que evoluem de acordo com
certas equações não-lineares podendo modelar sistemas
dinâmicos. Alguns algoritmos calculam o gradiente do erro
eficientemente como o TBTT (Truncated Backpropagation
Through Time) e o BTT(h,h’) [19]. No algoritmo RTRL
(Real-Time Recurrent Learning) [20] os pesos são atualizados
de forma “on-line” a uma complexidade computacional
relativamente elevada: O(N4), em que Né o número de nós da
rede. No entanto, constatamos que se consegue resultados
satisfatórios com apenas dois neurônios e que um aumento no
número de neurônios nem sempre leva a um melhor
desempenho.
Seja uma rede neural consistindo de Nneurônios com M
entradas externas, x(n) o vetor de entradas Mx1 no tempo n, e
y(n+1) o vetor de saídas Nx1 no instante de tempo n+1.
Definiremos o vetor u(n) como uma concatenação dos dois
vetores x(n) e y(n).Seja A o conjunto de entradas externas, e B
o conjunto de saídas. Se iA
então )()( nxnu ii , se iB
então )()( nynu ii
. A rede possui duas camadas: camada de
processamento e camada de concatenação entrada-saída
(Figura 2). A rede neural é completamente conectada com MN
conexões diretas e conexões de realimentação e z
2
N-1 é o
retardo de uma unidade de tempo aplicado ao vetor de saída.
Chamaremos de W a matriz de pesos tendo dimensão
N(M+N).
Seja a atividade interna de um neurônio j no tempo n para
B
j
:
¦
BAi
ijij nunwnv )()()( (2)
VIEIRA et al.: DYNAMIC TRANSMISSION RATE ALLOCATION 71
em que representa os pesos sinápticos. A saída do
neurônio j no próximo instante é dada por:
ji
w
))(()1( nvny jj
M
(3)
A função
M
utilizada, diferentemente do algoritmo de
Williams, é linear [19]. Tem-se então, as equações que
descrevem a dinâmica do sistema.
Fig. 2. Rede neural recorrente utilizada
IV. ALGORITMO RTRL
O algoritmo de treinamento com o qual trabalhamos é uma
extensão do algoritmo de aprendizagem recorrente em tempo
real (RTRL) descrito por Williams e Zipser em 1989 para
redes recorrentes [19]. Seja a resposta desejada para o
neurônio j no instante neC o conjunto de neurônios de saída
visíveis. Podemos definir um erro variante no tempo como
se . Definindo uma soma
instantânea de erros quadráticos no instante n como
)(nd j
Cj
)()()( nyndne jjj
¦
Cj
jnen )(
2
1
)( 2
H
¦
n
total n)(
HH
, devemos minimizar a função-custo
. Para isso é usada uma aproximação do
método do gradiente descendente: .
¦
n
Wtotal n)(
HH
W
Para um peso particular w:)(n
kl
¦
w
w
w
w
Cj kl
j
j
kl nw
ny
ne
nw
n
)(
)(
)(
)(
)(
H
(4)
Usando (2) e (3) podemos obter [21]:
»
¼
º
«
¬
ª
w
w
c
w
w ¦
Bi
lkl
kl
i
jij
kl
jnu
nw
ny
nwnv
nw
ny )(
)(
)(
)())((
)(
)1(
GM
(5)
Reescrevendo esta equação utilizando uma variável
triplamente indexada:
)(
)(
)( nw
ny
n
kl
j
j
kl w
w
S
(6)
»
¼
º
«
¬
ª
c
¦
Bi
lkl
j
kljij
j
kl nunnwnvn )()()())(()1(
GSMS
(7)
Como ¦
w
w
'
Cj
j
klj
kl
kl nne
nw
n
nw )()(
)(
)(
)(
SK
H
K
, os
pesos sinápticos serão atualizados de acordo com a equação:
)()()1( nwnwnw klklkl '
(8)
V. ALGORITMO DE KALMAN ESTENDIDO
O método de filtragem de Kalman consiste no uso de um
conjunto de equações que provêem uma computação eficiente
e recursiva para solução do método dos mínimos quadrados
[22].
O filtro de Kalman estendido (EKF) pode ser usado como
um algoritmo em tempo real para determinação dos pesos em
uma rede neural recorrente. Considera-se então, o problema da
aprendizagem como um problema de filtragem. Como a rede
neural possui uma estrutura não-linear, usaremos o filtro de
Kalman estendido. O filtro de Kalman estendido lineariza a
parte não-linear do sistema e usa o filtro de Kalman original
neste modelo linearizado.
O EKF foi inicialmente aplicado em redes MLP por
Singhal e Wu [23]. Eles mostraram que o algoritmo EKF
convergia mais rápido do que o ‘backpropagation’ e, às vezes,
quando o ‘backpropagation’ falhava, o EKF (Extended
Kalman Filter) convergia para uma boa solução [24]-[25].
Puskorius e Feldcamp aplicaram o algoritmo no treinamento
de redes neurais recorrentes, assim como Mathews e Williams
[24]-[26]-[27]. Williams observou que o algoritmo RTRL
pode ser visto como uma simplificação feita no EKF e que o
EKF converge mais rápido do que os algoritmos BPTT e
RTRL.
Seja o vetor d(n) de saídas desejadas de tamanho sx1. O
objetivo é achar os pesos w(n) (estados do sistema) tais que a
diferença entre a resposta da rede e o desejado seja mínima em
termos de erro quadrático. As equações que governam a
operação da rede neural recorrente são:
)())(),(()( nrnunwhnd n (9)
w)()1( nwn (10)
onde d(n) é tratado como o vetor de medição, r(n) vetor de
erro de medição e a função não linear descreve a relação
entre entradas u(n) e os pesos w(n). O algoritmo EKF aplicado
no treinamento de redes neurais se baseou nas seguintes
equações:
n
h
Equações de Atualização de Medições (correções):
)()()1\()(
)()1\(
)( nRnHnnPnH
nHnnP
nK T
nn
T
n
(11)
))](),1\(
ˆ
()()[()1\(
ˆ
)\(
ˆnunnwhndnKnnwnnw n (12)
)1\())()(()\( nnPnHnKInnP n (13)
72 IEEE LATIN AMERICA TRANSACTIONS, VOL. 1, NO. 1, OCTOBER 2003
Equações de Atualização Temporal (predição):
)\(
ˆ
)\1(
ˆnnwnnw (14)
)\()\1( nnPnnP (15)
em que:
w
nunwh
nH n
nw
w
))(),(
ˆ
(
)( (16)
e são as s
12
(.) [ , ,..., ]
ns
hhh h
)
))
saídas da rede neural, R é a
matriz de covariância do erro de medição, P é a matriz de
covariância do erro de estado, é uma estimativa de estado
(pesos) e K é conhecido como ganho de Kalman [19].
ˆ
w
A diferença entre a aplicação do EKF no treinamento de
redes com alimentação direta e redes recorrentes está no
cálculo da matriz jacobiana , onde é a sua
transposta .
)(nH n()
T
n
Hn
O algoritmo EKF possui complexidade computacional alta
p
ara grandes redes neurais. Seja N o número de neurônios da
rede neural, então o número de operações aritméticas a cada
p
asso é , o mesmo gasto pelo RTRL; porém o
armazenamento é de ON elementos contra ON do
RTRL, pois é necessário armazenar a matriz P[28].
Entretanto, assim como no RTRL pode se usar uma rede
neural recorrente com poucos neurônios.
4
(ON
4
(3
(
VI. SIMULAÇÕES E RESULTADOS
As predições em tempo real em uma rede de computadores
p
odem ser utilizadas no controle de fluxo do tráfego, dado que
os erros de predição obtidos com o treinamento em tempo real
são comparáveis ao do treinamento “on batch” com redes
neurais MLP e ou RBF [29]-[30].
Utilizando atualizações dos pesos a cada instante pode-se
melhor acompanhar sinais como a série Bc-Octint (Figura 3),
que apresentam variações bruscas e que se diferenciam muito,
em diferentes instantes de tempo. Além do que as redes
neurais recorrentes são capazes de mapear pontos l instantes
no futuro com pontos do presente.
A rede neural treinada com o algoritmo RTRL e sua
operação se mostraram insensíveis à escolha inicial dos pesos
e estável, se estes forem inicializados com valores baixos
(0,0001). Para se avaliar a qualidade das predições foi usado o
erro quadrático médio normalizado (EQMN) dado por:
¦
p
n
nyny
p
EQMN
1
2
2)](
ˆ
)([
1
V
(17)
onde y(n) é o valor real da série, é o valor predito, é a
variância da seqüência real sobre o intervalo de duração da
p
redição e p é o número de amostras do teste.
)(
ˆny 2
V
As séries utilizadas nas simulações foram: Bc-Octext cuja
escala de tempo escolhida foi de 1min com 2046 pontos e a
série Bc-Octint com 1759 pontos e escala de tempo 1s.
Instantes diferentes da mesma série temporal são utilizados no
treinamento e predição da rede neural. O treinamento desta se
dá apenas nos intervalos de tempo onde não se tem adaptação
de taxa. Notou-se que o treinamento da rede neural sem a
recorrência e seu uso somente em operação diminui o EQMN
de predição.
Para a série Bc-Octint, o EQMN das predições a um passo
dos instantes 801 a 1701 foi de 0,3850, utilizando dois
neurônios, com cinco entradas equivalentes a 5 instantes em
sequência do tráfego real e taxa de aprendizagem 0,1
(Tabela1).
Para a série Bc-Octext, utilizou-se também dois neurônios,
uma entrada e taxa de aprendizagem 0,2. Foi obtido um
EQMN de 0,3946 para a predição dos pontos 1000 a 2000
(Figura 4).
Fig. 3. Predição a um passo por rede neural recorrente treinada com
algoritmo RTRL (em vermelho).
TABELA I
EQMN DE PREDIÇÃO
EQMN
RTRL EKF
Série Bc-octext 0,3946 0,3972
Série Bc-octint 0,3850 0,3398
Utilizou-se nas simulações uma taxa de amostragem 'de
0,1s, D=1 e M=4, portanto a rede neural deve mapear
diretamente pontos distantes de 4 instantes de tempo (Figura
1). A cada instante, guardamos a predição do quarto ponto à
frente, sendo feitas 4 predições: x4)(n
ˆ1,4)
2
(nx
ˆ,
4)(nx
ˆ3 e 4)(nx
ˆ4. Assim, a taxa de transmissão alocada
para os M 'segundos seguintes será:
4)}(nx
ˆ
4),(nx
ˆ
4),(nx
ˆ
4),(nx
ˆ
max{tx 4321 G(18)
onde G é um parâmetro de controle adicionado para absorver
principalmente altos picos de tráfego não bem preditos [10].
Utilizou-se G=1,25.
Definiremos a eficiência do esquema de alocação dinâmica
para o sistema a cada instante como:
b(n)
q(n)
U
(19)
onde q(n) é o número de bytes a serem escoados e b(n) é a
VIEIRA et al.: DYNAMIC TRANSMISSION RATE ALLOCATION 73
taxa de transmissão alocada no instante n.
Nas simulações foi considerado um enlace único com taxa
variável, ou seja, foram usados como entrada para o sistema
com alocação dinâmica de taxa, 3000 pontos da série Bc-
Octint, equivalente a 5 min de tráfego Ethernet chegando em
um nó com buffer finito.
Inicialmente, estipulamos o número de bytes suportado
pelo buffer de 70% do valor máximo da série Bc-Octint,
amostrada a cada 0,1s: 62.429bytes. No algoritmo de Kalman
estendido inicializamos todos pesos com valor igual a 0,1,
para tirarmos a aleatoriedade da escolha inicial dos pesos. A
matriz R foi inicializada com valor igual a 100 e a matriz P
com 800*I14x14 onde I é a matriz identidade. O erro médio
quadrático das predições em tempo real de quatro instantes à
frente foi de 1,1038 (RTRL) e 1,2076 (EKF) para os pontos
de 1000 a 3000. A Figura 4 mostra a taxa de transmissão
alocada para escoamento do tráfego usando o algoritmo de
Kalman. A eficiência média do esquema de alocação (equação
19) foi de 0,7809 (RTRL) e 0,7220 (EKF).
Fig.4. (Vermelho) Predição de 4 instantes à frente. (Azul) Série real.
(Verde) Taxas de transmissão alocadas a cada 4 instantes
Quanto a ocupação do buffer, os seguintes dados foram
obtidos:
TABELA 2
TRÁFEGO NO BUFFER
RTRL EKF
Qmax (máximo número
de bytes no buffer)
175.570 bytes 207.590 bytes
Qmed (número médio
de bytes no buffer)
8.058 bytes 6.851,5 bytes
Varq (variância do
número de bytes no
buffer)
4,0133.108 bytes 3.7774108 bytes
Com o método proposto, obteve-se uma alocação de taxa
média de 4,7777mx/s, onde mx=89.184 bytes. Se tivéssemos
alocado essa taxa de transmissão média, mas fazendo-a única
e constante teríamos uma perda de 1.340.400 bytes.
Utilizando alocação dinâmica 857.150 bytes são perdidos.
Além de uma menor perda de bytes, há uma melhor utilização
do sistema, podendo por exemplo, disponibilizar quando
possível, maiores taxas para outras conexões e alocar o
necessário para o escoamento do tráfego considerado.
Utilizando EKF obteve-se uma alocação de taxa média de
4,841mx/s, onde mx=89.184 bytes. Da mesma forma que para
o algoritmo RTRL, alocando uma taxa de transmissão única
teríamos uma perda de 1.217.700 bytes de tráfego. Utilizando
alocação dinâmica 526.450 bytes são perdidos (Figura 5).
Variando o tamanho do buffer, porém mantendo a mesma
configuração da rede neural e do sistema, podemos relacionar
a taxa de perda de bytes e o número de bytes máximo
armazenado no buffer (Figura 6 ).
Fig. 5. Número de bytes perdidos a cada 0,1s com alocação dinâmica de
taxa (EKF)
Fig.6. Relação entre a taxa de perda de bytes e o tamanho do buffer (EKF)
VII. CONCLUSÕES
Com o treinamento em tempo real de redes neurais
recorrentes busca-se além de diminuir os dados de
treinamento, atualizar os pesos da rede neural de forma a lidar
com variações estatísticas do tráfego que possam acontecer,
para as quais redes neurais com treinamento ‘on batch’
poderiam não estar preparadas.
Utilizando o esquema de controle de taxa de transmissão
proposto, deve-se levar em conta o tamanho do buffer, as
taxas disponíveis, aí então, configurar a rede neural de forma a
ter uma menor perda de bytes possível através de um
adequado dimensionamento do buffer (Figura 6).
Notou-se que a taxa de aprendizagem da rede neural
treinada com algoritmo RTRL influencia na alocação de taxa
de transmissão e assim na perda de bytes. Uma estimativa de
taxa de transmissão mais elevada devido a uma maior taxa de
74 IEEE LATIN AMERICA TRANSACTIONS, VOL. 1, NO. 1, OCTOBER 2003
aprendizagem, leva a menores perdas de bytes, mesmo com
um maior erro de predição.
Os algoritmos propostos mostraram segundo a análise
realizada, serem ferramentas úteis na otimização dos recursos
de uma rede de computadores, uma vez que acarretaram uma
maior utilização da rede a uma menor perda de bytes.
Como trabalho futuro fica a computação em tempo real de
um intervalo de confiança das predições e sua inclusão na
alocação de taxa a fim de garantirmos uma margem de
segurança mais precisa do que o fator G da equação 18.
VIII. REFERÊNCIAS
[1] Z. Sahinoglu, S.Tekinay, “On Multimedia Networks: Self-similar Traffic
and Network performance”, IEEE Communications Magazine, January,
1999;
[2] D.Veitch, P. Abry, P, “A wavelet based joint estimator of the parameters
of long-range dependence,” IEEE Trans. Inform. Theory–Special Issue
on Multiscale Statistical Signal Analysis and Its Applications, vol. 45,
no. 3, Apr. 1999;
[3] D.Veitch, P.Abry, “Wavelet analysis of long-range dependent traffic,”
IEEE Trans. Info. Theory, vol. 44, no. 1, pp. 2–15, 1998;
[4] R.H.Riedi, M.S.Crouse, V.Ribeiro e R.G.Baraniuk, “A multifractal
wavelet model with application to network traffic” IEE Trans. Info.
Theory, vol. 45, no.3, pp.992 –1018, Abril 1999.
[5] K.Park, K, G. Kim, e M.Crovella, “On the Relation between File Sizes,
Transport Protocols and Self-similar Network Traffic”, Proc.IEEE Int’l.
Conf. Network;
[6] K.Park, G.Kim, e M.Crovella, “On the Effect of Traffic Self-similarity
on Network Performance”, Proc.SPIE Int’l. Conf. Perf. And Control of
Network Sys., 1997, pp.296-310;
[7] T.Tuan, K.Park, “Congestion Control for Self-similar Network Traffic”,
Dept.of Comp. Science, Purdue Univ., CSD-TR 98-014, Maio, 1998;
[8] W.Stallings, “High Speed Networks: TCP/IP, ATM Design Principles”,
Prentice Hall, 1998, pp.181-207;
[9] J.W.Roberts, “Engineering for quality of service” , Self-similar network
traffic and performance evaluation, John Wiley & Sons, 2000;
[10]S.Chong, e S.Li, “Predictive dynamic bandwidth allocation for efficient
transport of real-time VBR vídeo over ATM”, IEEE JSAC, vol. 13, no.1,
Jan. 1995, pp.12-23;
[11]S. Jagannathan e J.Talluri. “Adaptive Predictive Congestion Control of
High-Speed ATM Networks”. IEEE Transactions on Broadband, Vol.48,
No.2, June 2002;
[12] Bor-Sen Chen, Sen-Chueh Peng, e Ku-Chen. “Traffic Modeling,
Prediction and Congestion Control for High-Speed Networks: A Fuzzy
AR Approach. IEEE Transactions in Fuzzy Systems, Vol. 8, No.5,
October 2000;
[13]A.Adas,“Supporting real time VBR video using dynamic reservation
based on linear prediction”, Proc.IEEE INFOCOMM’96, 1996, pp.1476-
1483;
[14] A. Adas, e A.Mukherjee, “On resource management and QoS guarantees
for long range dependent traffic”, Proc.IEEE INFOCOMM, April 1995,
pp.779-787;
[15] E.A.Wan, “Time series prediction by using a connectionist network
with internal delay lines” In Time Series Prediction: Forecasting the
Future and Understanding the past, Addison –Wesley, 1994, pp.195-
217;
[16] A.Aussem, F.Murtag, M. Sarazin, “Dynamical Recurrent Neural
Networks- towards environmental time series prediction”, International
Journal on Neural Systems, 6, 1995, pp.145-170,;
[17] A. Aussem, F.Murtag, “Combining Neural Network Forecasts on
Wavelet-Transformed Time Series” ,Connection Science 9, 1997,
pp.113-121;
[18] Y.Bengio, P.Frasconi, M.Gori, “Recurrent Neural Networks for
Adaptive Temporal processing”, Universitá di Firenze, Julho 1993;
[19] R.J.Williams, D.Zipser, “A learning algorithm for continually running
fully recurrent networks” Neural Computation 1, 1989, pp.270-280;
[20] R.J.Williams, D.Zipser, “An efficient gradient-based algorithm for on-
line training of recurrent network trajectories” Neural Computation 2,
1989, pp. 490-501;
[21] S.Haykin. “Neural Networks - A Comprehensive Foundation”. Prentice
Hall. 1994;
[22] R.E.Kalman, “A New Approach to Linear Filtering and Prediction
Problems,” Transaction of the ASME - Journal of Basic Engineering,
Março, 1960, pp.35-45;
[23] S.Singhal, L.Wu, “Training multilayer perceptrons with the extended
Kalman filter algorithm”. Advances in Neural Information Processing
Systems, 1989, pp. 133-140;
[24] R.J.Williamns, “Training Recurrent Networks Using the Extended
Kalman Filter”. Technical Report . Boston: Northestern University,
College of Computer Science, 1992;
[25] G.V.Puskorius, e Feldkamp, L.A. “Decoupled extended Kalman filter
training of feedforward layered networks”. Proceedings of the
International Joint Conference on Neural Networks, 1991, pp.771-777;
[26] G.V.Puskorius, e Feldkamp, L.A. “ Neurocontrol of nonlinear dynamical
systems with Kalman filter trained recurrent networks”, IEEE
Transactions on Neural Networks, vol 5, Março, 1994, pp.279-297;
[27] M.B.Mathews, “Neural networks nonlinear adaptive filtering using the
extended Kalman filtering algorithm”. Proceedings of the International
Neural Networks Conference, vol.1, Paris, Julho, 1990, pp115-119;
[28] R.J.Williams. “Training Recurrent Networks Using the Extended
Kalman Filter”. Proceedings of the International Joint Conference on
Neural Networks, Vol. IV, pp.241-246, Baltimore, 1992;
[29] F.H.T.Vieira “Predição de tráfego em redes de comunicações utilizando
redes neurais e análise wavelet- Alocação dinâmica de largura de faixa”.
Dissertação de mestrado. Universidade Federal de Goiás, Goiânia,
Goiás, Brasil.
[30] F.H.T.Vieira, R.P.Lemos, L.L.Lee. “Aplicação de Redes Neurais RBF
Treinadas com Algoritmo ROLS e Análise Wavelet na Predição de
Tráfego em Redes Ethernet”. Proceedings of the VI Brazilian
Conference on Neural Networks- pp.145-150, June 2-5, 2003 -SP-
Brasil.
IX. BIOGRAFIAS
Flávio Henrique Teles Vieira nasceu em Barra do
Garças (MT), Brasil, em 1978. Recebeu o título de
bacharel em Engenharia Elétrica pela Universidade
Federal de Goiás (UFG) em 2000 e o título de Mestre em
Engenharia Elétrica pela Escola de Engenharia Elétrica da
UFG em 2002. É aluno de doutorado na Faculdade de
Engenharia Elétrica e Computação da Universidade
Estadual de Campinas (FEEC-UNICAMP). Atualmente
atua nas seguintes áreas de pesquisa: Tráfego em redes de
computadores, Processamento de Sinais e Redes Neurais.
Rodrigo Pinto Lemos nasceu em Cássia-MG em 1969. Obteve os títulos de
Engenheiro Eletricista pela Universidade Federal de Goiás (1992), Mestre e
Doutor em Engenharia Elétrica pela UNICAMP, na área de Eletrônica e
Comunicações - Processamento de Sinais (respectivamente em 1995 e 1997).
Desde 1996 atua como professor da Escola de Engenharia Elétrica da
Universidade Federal de Goiás, atualmente no cargo de Professor Adjunto. De
1998 a 2000 foi Subcoordenador de Pós-Graduação da EEE/UFG. Seus
interesses de pesquisa envolvem Processamento Estatístico de Sinais,
Previsão, Modelagem e Controle de Tráfego.
Luan Ling Lee obteve o título de engenheiro eletricista
pela USP em 1980, mestre em Engenharia Elétrica pela
UNICAMP em 1984 e PhD em Engenharia Elétrica
pela Universidade de Cornell em 1991. Foi fundador e
tem sido o coordenador do Laboratório de
Reconhecimento de Padrões e Redes de Comunicações
(LRPRC) da FEEC-UNICAMP desde 1994. Foi o chefe
do Departamento de Comunicações em 2000. Desde
2002 ele tem sido Professor Titular pela FEEC-
UNICAMP. Atualmente ele atua intensamente em duas áreas de pesquisa:
Reconhecimento de Padrões e Redes de Comunicações.
VIEIRA et al.: DYNAMIC TRANSMISSION RATE ALLOCATION 75
ResearchGate has not been able to resolve any citations for this publication.
Chapter
The traditional role of traffic engineering is to ensure that a telecommunications network has just enough capacity to meet expected demand with adequate quality of service. A critical requirement is to understand the three-way relationship between demand, capacity, and performance, each of these being quantified in appropriate units. The degree to which this is possible in a future multiservice network remains uncertain, due notably to the inherent self-similarity of traffic and the modeling difficulty that this implies. The purpose of the present chapter is to argue that sound traffic engineering remains the crucial element in providing quality of service and that the network must be designed to circumvent the self-similarity problem by applying traffic controls at an appropriate level. We discuss the nature of traffic in a multiservice network, identifying broad categories of flows with distinct quality of service requirements. Open-loop and closed-loop control options are discussed. It is demonstrated notably that self-similar traffic does not necessarily lead to poor network performance if adapted flow level controls are implemented. A tentative service model drawing on the lessons of the preceding discussion is proposed. Finally, we suggest how traditional approaches might be generalized to enable traffic engineering for a network based on this service model.
Conference Paper
A mechanism which gives rise to self-similar network traffic is examined, and its performance implications are presented. This mechanism is the transfer of files or messages whose size is drawn from a heavy-tailed distribution. In a `realistic' client/server network environment, the degree to which file sizes are heavy-tailed can directly determine the degree of self-similarity traffic at the link level. The properties of the transport layer play an important role in preserving and modulating this causal relationship. Performance implications of self-similarity as represented by such performance measures as packet loss rate, retransmission rate, and queueing delay are presented.
Article
The effect of long-memory processes on queue length statistics of a single queue system is studied through a controlled fractionally differenced ARIMA (1,d,0) input process. This process has two parameters /spl phi//sub 1/ and d representing an auto-regressive component and a long-range dependent component, respectively. Results show that the queue length statistics studied (mean, variance and the 0.999 quantile) are proportional to e(c/sup c/spl phi/1/) e(c/sub 2/d), where (c/sub 1/, c/sub 2/) are positive constants, and c/sub 2/
Article
Recent measurements of local-area and wide-area traffic have shown that network traffic exhibits variability at a wide range of scales. What is striking is the ubiquitousness of the phenomenon, which has been observed in diverse networking contexts, from Ethernet to ATM, LAN and WAN, compressed video, and HTTP-based WWW traffic. Such scale-invariant variability is in strong contrast to traditional models of network traffic, which show burstiness at short time scales but are essentially smooth at large time scales; that is, they lack long-range dependence. Since scale-invariant burstiness can exert a significant impact on network performance, understanding the causes and effects of traffic self-similarity is an important problem.
Chapter
There has been significant progress in developing appropriate mathematical and statistical techniques that provide a physical-based, networking-related understanding of the observed fractal-like or self-similar scaling behavior of measured data traffic over time scales ranging from hundreds of milliseconds to seconds and beyond. These techniques explain, describe, and validate the reported large-time scaling phenomenon in aggregate network traffic at the packet level in terms of more elementary properties of the traffic patterns generated by the individual users and/or applications. They have impacted our understanding of actual network traffic, to the point where we now know why aggregate data traffic exhibits fractal scaling behavior over time scales from a few hundreds of milliseconds onward. In fact, a measure of the success of this new understanding is that the corresponding mathematical arguments are at the same time rigorous and simple, are in full agreement with the networking researchers' intuition and with measured data, and can be explained readily to a non-networking expert. These developments have helped immensely in demystifying fractal-based traffic modeling and have given rise to new insights and physical understanding of the effects of large-time scaling properties in measured network traffic on the design, management, and performance of high-speed networks.
Article
The classical filtering and prediction problem is re-examined using the Bode-Sliannon representation of random processes and the “state-transition” method of analysis of dynamic systems. New results are: (1) The formulation and methods of solution of the problem apply without modification to stationary and nonstationary statistics and to growing-memory and infinitememory filters. (2) A nonlinear difference (or differential) equation is derived for the covariance matrix of the optimal estimation error. From the solution of this equation the coefficients of the difference (or differential) equation of the optimal linear filter are obtained without further calculations. (3) The filtering problem is shown to be the dual of the noise-free regulator problem. The new method developed here is applied to two well-known problems, confirming and extending earlier results. The discussion is largely self-contained and proceeds from first principles; basic concepts of the theory of random processes are reviewed in the Appendix.