Padrão ATM
SUMÁRIO
· Prefácio--------------------------------------------------------------------1
· Introdução----------------------------------------------------------------2
· Os recém chegados -----------------------------------------------------2
· A aparição do ATM ----------------------------------------------------3
· Definição de um padrão ATM ---------------------------------------4
· LAN Emulation v 1.0 --------------------------------------------------5
· IISP ------------------------------------------------------------------------5
· A Informação na rede ATM------------------------------------------6
· O que eles estão fazendo-----------------------------------------------8
· Conjuntura desfavorável ----------------------------------------------9
· Afinal, o que é ATM?-------------------------------------------------11
· Minha rede vai precisar de ATM?---------------------------------11
· Os desafios do ATM - reais e imaginários -----------------------12
· O Fator FUD (Fear, Uncertainty and Doubt) -------------------12
· Padrões - uma faca de dois gumes ---------------------------------14
· O fórum ATM ----------------------------------------------------------14
· Gerenciamento de tráfego ABR------------------------------------15
· Conclusão----------------------------------------------------------------20
· Fontes --------------------------------------------------------------------21
· Identificação -----------------------------------------------------------21
Prefácio
Todos falam de ATM como a resposta para aumentar a
performance de redes congestionadas. Mas essa solução ainda não esta sendo largamente
utilizada pelas empresas, pois além de exigir a substituição completa da instalação,
o ATM é muito caro.
Podemos concluir que o ATM é um forte aliado, a nível de transmissão nos padrões de
rede , mas como todo produto novo que aparece no mercado ele ainda gera algumas
incompatibilidades.
Apesar de algumas empresas já trabalharem com o ATM, o Fórum ATM ainda tem muita coisa
para explorar sobre este poderoso recurso, que pode ser ainda muito bem utilizado.
Esta apostila tem como objetivo principal passar as informações necessárias para que
qualquer "usuário leigo" possa ter idéia do que seja um ATM e como tem se
desenvolvido de acordo com as necessidades do mercado de redes.
INTRODUÇÃO
Os recém chegados
A indústria de computadores nasceu na década de 50. Inicialmente, seus produtos eram
máquinas de grande porte, os chamados mainframes, caros e exigentes quanto a estrutura de
suporte.
A resposta a necessidade de se comunicar com o usuário final foi a criação das chamadas
redes de teleprocessamento, que ligavam as unidades centrais de processamento a terminais
remotos desprovidos de qualquer capacidade de processamento local. Esta tecnologia ainda
é utilizada hoje em dia, geralmente em empresas de grande porte.
Os avanços da tecnologia em circuitos integrados entre os anos 70 e 80 trouxeram
significativo progresso na relação custo/benefício dos computadores. Menores, muitos
mais baratos e ganhando significativamente em desempenho, os computadores, tornaram-se
acessíveis a um grande número de usuários. Grandes e médias empresas puderam
estabelecer políticas de distribuição das tarefas de processamento. As pequenas
finalmente puderam ter seus computadores próprios.
A necessidade de trocar informações entre usuários só aumentou, a ponto de trocar
dados entre unidades independentes, com unidade de processamento local e, compartilhar os
recursos de um dispositivo de entrada e saída caro ou pouco convencional .
Em primeiro momento, computadores foram ligados, dois a dois (de maneira had hoc),
utilizando-se para isso a infra-estrutura existente de telecomunicações de voz. Esta
solução mostrou-se rapidamente muito limitada e sistemas mais avançados foram
desenvolvidos. "Ambientes operacionais" mais complexos, que permitiam a
comunicação de vários computadores e o uso de serviços como troca de mensagens e de
arquivos, foram implementados. Estes tipos de ambiente são conhecidos como redes de
computadores.
Restrições de ordem tecnológica e econômica e as necessidades diversas resultaram em
vários tipos de redes de computadores. O resultado é a situação atual de coexistência
de um número significativo de redes de computadores, em grande parte incompatíveis entre
si. Esta é uma situação inaceitável.
A solução deste problema é a adoção de sistemas que respeitam um
determinado padrão compartilhando dados e funções através de mecanismos de troca de
informações.
A aparição do ATM
A união dos fatores apresentados acima - aliados a novos e significativos feitos
tecnológicos envolvendo a capacidade de transporte de informações em cabos e fibras
óticas e grandes distâncias - suporta uma visão de futuro onde ambas as indústrias
estão confluindo para um campo único de atuação: o do fornecimento de múltiplos
serviços baseados em infra-estrutura única. Esta infra-estrutura é o resultado de anos
de experiência no desenvolvimento e operação tanto de redes de computadores como de
redes de telecomunicações, sendo uma combinação de ambas as tecnologias. É fortemente
baseada no emprego de computadores e seus recursos de controle e no emprego de técnica de
chaveamento e transmissão de dados surgidos na indústria de telecomunicações.
Há alguns anos, o ITU-TSS (International Telecomunication
Union- Telecomunication Standard Section) e várias indústrias verificando a situação
indesejável decorrente da existência de várias infra-estruturas específicas a cada
serviço, propuseram o desenvolvimento de um padrão para uma infra-estrutura única capaz
de suportar todos os serviços, conhecido como Asynchronous Transfer Mode (ATM). A
formação de associação normativa setorial chamada ATM Fórum nos Estados Unidos (600
participantes ativos) propulsionou decisivamente a definição do padrão ATM. Nunca antes
a comunidade de padronização, a academia, a indústria de computadores e a de
telecomunicações se uniram como no caso do ATM para o desenvolvimento de um novo
padrão.
A capacidade de se trocar informações com outros computadores, evoluiu-se para uma
arquitetura centrada n existência da rede e nas imensas possibilidades decorrentes de uma
forte interação com outros elementos de mesma capacidade de processamento. As
exteriorizações mais evidentes desta mudança de enfoque são: a foça atual do
paradigma conhecida como cliente/servidor, onde os agentes responsáveis pela resolução
de um problema são distribuídos por várias máquinas interoperantes diferentes e o
rápido progresso de uma indústria dedicada a construir equipamentos de redes.
É de se notar ainda que a segunda maior empresa de software hoje no mercado mundial tem
como principal produto um sistema operacional de redes locais.
Com o desenvolvimento e aplicação do ATM, as possibilidades são significativamente
maiores. Aplicações que mesclam vários serviços estão sendo viabilizadas. Projetos
imagináveis há apenas alguns anos começam a ser implementados. Qualidade de serviço,
confiabilidade e segurança serão requisitos exigidos em níveis muito mais altos
comparados com os atualmente praticados. Como estas aplicações deverão servir de apoio
a muitas atividades humanas, não serão toleradas conexões interrompidas, atrasos ou
funcionamento não previsível decorrentes de problemas de interoperabilidade ou
conformidade.
Definição de um padrão ATM
Uma das maiores expectativas do mercado que temos hoje no mercado de redes é o ATM. As
principais apostas do momento apontam para 1997 e 1998 como possíveis anos da explosão
de vendas de produtos com tecnologia ATM no mundo.
Os fatores que regem este processo podem ser divididos em dois grandes grupos: os aspectos
econômicos e os aspectos técnicos. No campo dos aspectos econômicos, a palavra chave
chama-se custo/benefício. Como qualquer ramo no mundo de negócios, as empresas passarão
a adotar a tecnologia ATM quando os custos relacionados a sua implantação caírem a
ponto de justificar seus benefícios. Sem cair na clássica história do ovo e da galinha,
isso deverá ocorrer assim que a produção de equipamentos pelos fabricantes atinja
escalas maiores. Portanto, é para o campo dos aspectos técnicos que estão voltadas as
maiores atenções atualmente.
Há muito trabalho a ser feito no sentido de transformar o ATM em uma tecnologia
padronizada, com garantias de interoperabilidade entre equipamentos de diferentes
fabricantes. É exatamente esse o papel do ATM Fórum, entidade que reúne representantes
de mais de 700 empresas interessadas em desenvolver especificações padrões para o ATM.
LAN Emulation v 1.0
Garantir a interoperabilidade entre seus produto sem um ambiente heterogêneo. O LAN
Emulation ATM foi desenvolvido para permitir que as aplicações e protocolos existentes
hoje possam ser executados normalmente em um backbone ATM. Sua implementação é
fundamental para garantir a convivência do ATM com as tecnologias atuais, criando
condições para um processo de migração suave dentro das empresas que adotarem a nova
tecnologia.
IISP
O IISP(Interim Interswitch Signaling Protocol) é um dos primeiros passos do ATM Fórum no
sentido de criar uma especificação padrão para a sinalização de troca de
informações entre switches de diversos fabricantes em uma rede ATM. A utilização do
protocolo IISP permite que usuários conectados a diferentes switches estabeleçam
conexões em circuitos virtuais comutados (SVCs), estabelecidos na media em que há
necessidade de comunicação entre quaisquer dois pontos da rede.
O ATM Fórum aprovou a especificação de uma interface física com velocidade de 25,6
Mbps. Sua proposta é abrir caminho para que o ATM chegue as estações de trabalho
sustentado pelo argumento de que as aplicações utilizadas atualmente não tem
necessidade de banda superior a esse patamar. Questões técnicas à parte, a adoção ou
não deste padrão pelo mercado vai ser definida pelos aspectos econômicos. O que
significa dizer que o ATM a 25 Mbps só será um sucesso se sua relação custo/benefício
for mais atraente que uma solução em ATM a 155 Mbps, ou, até mesmo, do que soluções
que utilizem switches Ethernet a 10 ou 100Mbps.
A informação na rede ATM
" A comunicação não mais depende da movimentação física ou de mensagens
escritas "
Ronaldo Cereda
O surgimento da tecnologia ATM abre novos grandes horizontes com suas aplicações
multimídia. Dado o seu pouco tempo de existência, é muito cedo para se saber aonde tudo
isso vai nos levar. O certo é que as novidades e as informações vão, também elas,
chegar primeiro nas "asas" de uma rede de computadores, de preferência numa
rede ATM.
Uma revolução dentro desta revolução tecnológica diz respeito às técnicas
empregadas para implementar as redes de comunicação. Das redes analógicas específicas
a cada tipo de serviço, os sistemas de comunicação estão evoluindo para outros
baseados em redes de computadores de alta velocidade, com capacidade para suportar
múltiplos serviços.
Curiosidades:
Alguns números ajudam a ilustrar a tendência do emprego de redes de computadores. Nos
Estados Unidos, a base instalada de LANs cresceu de 6 milhões em 1992 para 13 milhões em
1995. No período de 1983 para 1991, os negócios no mercado de comunicação de dados
evoluíram de US$ 3,5 milhões para US$ 9,7 milhões, na área de serviços, e de US$ 3
milhões para US$ 13 milhões, no setor de equipamentos. As redes corporativas movimentam
anualmente US$ 10 bilhões e o número de redes ligadas à internet cresceu de 6 mil em
1993 para mais de 27 mil em 1995 (um aumento de 350%)
Fora dos Estados Unidos, o número de redes participantes evoluiu de 12 mil para mais de
21 mil. Um único serviço de pesquisa da Internet recebe cerca de 500 mil acessos por
dia. Uma pequena revista de variedades (em francês) recebe mais de mil acessos diários.
E mais importante, o tráfego médio nos
troncos americanos na Internet vem dobrando, em média, a cada ano desde 1988.
Novos serviços e aplicações que aproveitam os recursos disponíveis nestas novas
infra-estruturas estão sendo desenvolvidos e pesquisados. De maneira geral,
caracteriza-se esta nova classe de aplicações segundo os seguintes critérios:
- Aplicação exequível para atender demanda de instituições ou indivíduos (presente
ou futura);
- Número de usuários e capacidade demandada por usuário superior a 1 Tbps;
- Banda passante mínima por usuário de vários Mbps;
- Base mínima potencial de milhares de usuários simultâneos;
- Aplicações de vídeo para consumidores mais sofisticados que os serviços atuais por
difusão ou cabo.
Estas aplicações podem não requerer vários Gbps para um único usuário. Mas exigindo
vários Mbps para cada um tendo potencial de uso simultâneo (do serviço ou aplicação
por vários usuários, a taxa agregada total pode alcançar vários Tbps. Esta demanda
não é atendida pelos sistemas comercias atuais e certamente vai exigir a implementação
de uma infra-estrutura totalmente nova, hoje disponível apenas em laboratórios e campos
de teste restritos.
O que eles estão fazendo?
Os países desenvolvidos se preparam para esta futura realidade através de programas de
grande alcance e altos orçamentos. A Comunidade Européia está conduzindo vários
programas para o estabelecimento e a coordenação de uma infra-estrutura de redes que vai
abranger todo o continente. O programa European Nervous System (ENS), por exemplo, tem
como objetivo implementar um conjunto de aplicações que vão controlar a navegação de
cabotagem, a seguridade social, um catálogo de negócios e várias outras funções
abrangendo todos os países membros da CE.
Os Estados Unidos estão conduzindo o High Performance Computing and Communications (HPCC)
Program, cujo objetivo é implantar uma infra-estrutura nacional de informação
(popularmente conhecida como Informations Highway) baseada em redes de computadores. Só
no sub programa voltado especificamente ao desenvolvimento da infra-estrutura de redes de
alta velocidade , o HPCC tem aplicado consideráveis somas.
O HPCC foi idealizado para enfrentar os chamados desafios nacionais, ou seja, aplicações
cuja implantações são consideradas capazes de provocar um impacto direto positivo na
competitividade da indústria e no bem-estar da sociedade norte-americana. O HPCC vai
desenvolver vários projetos-pilotos:
- Bibliotecas Digitais, para desenvolver tecnologias de armazenamento e recuperação de
informação envolvendo Petabytes;
- Interligação de centros educacionais universitários e de nível secundário e
fornecimento de tecnologia de educação utilizando meios multimídia.
- Saúde que vai desenvolver tecnologia para provedores de serviços médicos.
As espectativas dos resultados com a implementação destas aplicações, e de muitas
outras em consideração em outros projetos, é enorme. Mas não é possível prever-se o
que significará para todos os segmentos da sociedade e disponibilização destes
recursos.
As atividades ligadas a telecomunicação representarão 70% do PIB mundial até o fim da
década. Não participar desta revolução tecnológica e de suas
consequências é abdicar conscientemente de um novo partamar de civilização.
Conjuntura desfavorável
Duas conjunturas influenciam fortemente o estado atual do Brasil frente a esta evolução
nas comunicações. A econômica que limita a capacidade do governo brasileiro de
financiar projetos de longo prazo e investir em infra-estrutura básica. A malha de
telecomunicações existente é restrita e de baixíssima qualidade, embora investimentos
previstos pretendam instalar 12 mil Km de cabos de fibra ótica até o fim da década.
Quanto aos serviços de comunicação de dados por pacotes, a rede Renpac, está em
operação há alguns anos mas possui alcance restrito.
Pode-se acrescentar ainda que o estágio anterior não foi resolvido adequadamente até o
momento, o que sugere uma importância ainda maior para o estabelecimento de uma
infra-estrutura eficiente de telecomunicações.
No setor privado, a longa instabilidade econômica afetam as empresas, consequentemente,
elas acabam por orientar seus recursos materias e humanos para a resolução de problemas
de curtíssimo prazo.
A segunda conjuntura refere-se ao momento político. Teorias neoliberais privilegiam de
modo decisivo o comércio internacional e a quebra de barreiras alfandegárias de toda
sorte em detrimento de políticas de desenvolvimento autóctone e independente. A
principal consequência dessas mudanças no que diz respeitos à tecnologia é o abono,
praticamente total, das atividades de desenvolvimento. As empresas brasileiras de
computadores, que antes mantinham equipes de desenvolvimento, ou apenas realizavam
pequenas adaptações em produtos estrangeiros, abandonaram completamente este tipo de
atividade. Muitas associaram-se a companhias estrangeiras, passando a atuar basicamente
como revendedoras de produto.
Perdeu-se muito do conhecimento adquirido ao longo dos anos com o desenvolvimento dos bens
de informática. Muitas equipes se esfacelaram sem qualquer possibilidade de reversão
imediata do quadro.
Hoje em dia é inoportuno mesmo o uso do termo "indústria" quando este se
refere as iniciativas nacionais na área de redes de computadores. O que se vê são
revendedoras de produtos e representantes de empresas estrangeiras em crescimento
acelerado, as chamadas "integradoras". Empresas que elaboram "projetos de
redes", com combinando equipamentos de fabricantes diversos e fornecendo uma
"solução integrada" para esta necessidade.
O progressivo avanço das práticas de serviço e desenvolvimento e a desvalorização dos
profissionais tecnicamente mais capacitados podem ser apontados como fatores que explicam,
a falta (ou perda) de competência. Muito dos "projetos" hoje realizados
funcionam graças a super dimensionamentos que, por enquanto ainda não são do
conhecimento dos clientes finais.
O resultado combinado dessas duas conjunturas - a econômica e a política é:
- Não haver formação de competência em novas tecnologias devido ao custo e prazo
envolvidos ;
- Não haver adequação real das aplicações às necessidades locais.
- Falta de investimento em atividades consideradas de alto risco.
Observações :
Este quadro negativo contrasta com o enorme potencial do país, considerando-se a
extensão territorial e o porte do mercado interno, que o coloca entre as dez maiores
economias do mundo. O Brasil é o maior mercado de informática da América latina,
respondendo por 41% de todos os gastos em tecnologia da informação da região. Assim,
não obstante as condições atuais descritas, o Brasil apresenta um campo significativo e
altamente promissor para a atuação na área de comunicação, mais especificamente, em
redes de computadores.
Desapareceram do cenário nacional as condições de criação e a manutenção de certas
competências técnicas, voltadas a desenvolvimento de novas idéias, técnicas e
produtos.
Afinal, o que é ATM?
O modo de transferência assíncrona (Assynchronous Transfer Mode) é uma tecnologia de
comunicação de dados que se propõe a servir de transporte comum para dados, voz e
imagem, possibilitando uma padronização de todos os nossos meios de comunicação .
O ATM trabalha com switches (chaveadores), e células (que equivalem aos pacotes no X.25 e
no Frame Relay). Os switches trabalham recebendo uma célula e redirecionando-a ao
próximo switch ou a destino final. Entre quem gerou a célula (por exemplo, um PC cliente
de uma rede) e o destino final (um servidor da rede) deve haver pelo menos um switch.
Minha rede vai precisar de ATM?
É importante salientar que o meio entre um ponto (o PC) e um switch não é
compartilhado. Ou seja, não há concorrência pelo meio; não há colisões nem tokens e
o meio pode ser fibra ótica, UTP (par trançado não blindado) ou outros. A placa de rede
desse ponto deve ser uma placa ATM.
A velocidade entre um ponto da rede e o switch e entre switches pode variar. No começo
falava-se de velocidades entre 45 Mbps e 2.448 Mbps. Hoje já podemos considerar 25 Mbps e
provavelmente outras necessidades que o mercado demandar. Um mesmo switch pode ter portas
com velocidades diferentes, permitindo ligarmos um servidor numa porta mais rápida e as
estações em portas mais lentas. Dessa forma podemos estruturar nossa rede conforme
nossas necessidades.
Um dos pontos que mais fazem diferença no ATM é o tamanho, fixo, das células (53 bytes
- 5 de cabeçalho e 48 de dados).
Prós: os switches trabalham com mecanismos extremamente simplificados e
rápidos, possibilitando que, mesmo tendo que passar por diversos switches, uma célula
possa chegar ao seu destino sem demora. Para um serviço de telefonia esse tipo de
benefício é imprescindível.
Contras: a sobrecarga do cabeçalho da célula é de quase 10% da banda
de transmissão, enquanto nas demais tecnologias a média fica em 3%.
Outra característica do ATM é que ele é orientado a conexão. Quando uma estação se
conecta a um servidor, a rede ATM cria uma conexão entre os dois que só terminará
quando assim for solicitado. E essas conexões passam uma série de informações à rede
ATM, como o tráfego médio que ele gerará e o quanto o serviço é sensível às
demoras. Dessa forma os switches podem priorizar as conexões de uma forma bem
inteligente.
Os desafios do ATM - reais e imaginários
"Tornou-se "legal" criticar o ATM, mesmo que os padrões essenciais tenham
sido definidos ou estejam sendo completados. Está na hora de separar o medo e a incerteza
da realidade."
Ron Jeffries
Depois de anos de expectativa, o grande sucesso ainda está infinitamente distante. As
vendas do ATM ainda não decolaram, o contrário do que ocorre com algumas tecnologias
concorrentes como redes comutadas e frame relay. Para entender como o ATM vai se sair
dentro de um ano ou dois, precisamos descobrir como serão os grandes desafios - as
situações em que os usuários vêem as coisas piores do que elas realmente são.
O fator F U D (Fear, Uncertainty and Doubt)
Medo, Incerteza e Dúvida. A trajetória do ATM foi como a de uma montanha russa - subir
como um entusiasmo exagerado, mas depois desceu para uma fase de estagnação, em que
mesmo aqueles gurus, especialistas e jornalistas, que uma vez tentaram convencer que o ATM
era a solução para todos os problemas das redes, hoje reclamam sem parar de todos os
seus defeitos. Além disso, os defensores das tecnologias concorrentes tomaram partido
nesta discussão armados com dados que provam a superioridade de sua base incorporada,
qualquer que seja ela.
Mas não vai custar muito para que o mercado introduza uma terceira fase "baseada na
realidade" de um novo ciclo de tecnologia. Os vendedores espertos e ágeis irão
adaptar os seus produtos de modo que eles atendam às necessidades reais do mercado e
sejam recompensados com um maior número de vendas. Em suma, o mercado - e nossas
expectativas - vão ser profundamente transformados.
Padrões - Uma faca de dois gumes
Grande parte da angústia do ATM se origina de uma verdadeira preocupação com os
padrões - os clientes não se sentem à vontade em relação à patente falta de
estabilidade e freqüentemente se confundem com o status das várias especificações do
ATM.
Quando o Fórum ATM foi criado, tivemos estabelecidos os seus principais objetivos:
coordenar bem rapidamente os acordos de implementação e evitar o ritmo lento com que
andam as organizações de padrões tradicionais.
O Fórum ATM tem toda a razão de se orgulhar de todas as conquistas feitas nesta área.
No entanto, esta força - que cria especificações técnicas detalhadas a uma velocidade
espantosa - também se tornou uma espécie de fidelidade. O passo do desenvolvimento de
padrões e do aperfeiçoamento contínuo das especificações no Fórum mostram para o
usuário que os padrões do ATM não são estáveis.
Não há uma resposta simples para esta contradição. A tecnologia ATM é recente e
embora muita coisa tenha sido reformulada, ainda há muito o que fazer. Além disso, dado
o grande número exclusivo de tarefas que o ATM possa desempenhar, novas áreas
completamente diferentes precisam ser padronizadas. Há pouco tempo, por exemplo, houve um
grande impulso para que fossem criadas especificações para o ATM em redes sem fio.
O Fórum ATM
Ninguém deve se envergonhar do trabalho extra necessário para se criarem
especificações das novas aplicações, uma vez que é muito mais difícil saber como
proceder quando as especificações existentes precisam ser estendidas ou ampliadas.
Alguns dentro do Fórum tem uma atitude tipo furacão - eles acreditam que quanto antes o
trabalho pesado estiver feito, melhor.
Por outro lado, ganha ponto de vista diferente no Fórum, que argumenta que os clientes
valorizam a estabilidade e a previsibilidade muito mais do que aperfeiçoamentos
cosméticos feitos com especificações que já foram aprovadas. Enquanto os membros que
lideram o Fórum ATM começaram a incentivar uma linha mais conservadora, ainda não está
claro se - ou quando - os outros concordarão em ir mais devagar.
Gerenciamento de Tráfego A B R
Uma das maiores dores de cabeça do Fórum ATM vem sendo a definição de um método que
possa controlar o congestionamento de dados. Depois de mais dois anos de trabalho o Fórum
finalmente completou a especificação Gerenciamento de Tráfego 4.0, que caracteriza a
definição para o serviço available-bit-rate (ABR).
O controle de variação ABR baseado taxa gerou uma série de resistências. Apesar da
especificação estar completa, ainda há muita polêmica em relação ao ABR, o que
significa ,em que trabalha e, o principal, se realmente trabalham como dizem.
Parte do medo e incerteza foi resultado de uma campanha lenta, mas em andamento pelo apoio
a especificações de controle de fluxo baseado em crédito, a linha do Fórum mudou em
favor do método baseado na taxa. Alguns dos defensores da argumentação baseada no
crédito estão promovendo uma especificação denominada Quantum Flow Control (QFC), que
tem por base essencialmente o controle reborn de fluxo baseado no crédito. Enquanto o QFC
tem algumas características marcantes não exige a elaboração de uma sinalização
necessária a cada vez que uma conexão baseada em taxa é estabelecida, provavelmente
não será muito adotado. Há um consenso de que os usuários e vendedores serão melhor
servidos se um - e apenas um - tipo de controle for adotado.
A complexidade do ABR gera uma outra fonte de confusão. Por exemplo, o ABR engloba três
métodos diferentes de controle de taxa de origem de tráfego. Para aumentar a
complexidade da implementação são estes métodos o modo binário, a taxa relativa e a
taxa explícita.
No início do processo, tomou-se uma decisão de que a ABR precisa trabalhar com
comutadores ABR existentes, o que inclui aqueles que suportam apenas a definição do bit
de Explicit Foward Congestion Indication (EFCI). A intenção inicial era a de proteger os
investimentos que os clientes fizeram naqueles switches. Havia também uma preocupação
com a forma de manter o ABR em links de alta velocidade - em 622 Mbps - e em taxas ainda
maiores, métodos de controle de fluxos complexos poderiam não ser tão viáveis dentro
de um tempo de processamento de uma só célula.
O switches EFCI manipulam o congestionamento através da inserção de um bit EFCI em cada
célula que passa pelo switch. O modo binário do ABR manipula o EFCI, através da
estação final de destino, - tipicamente de um PC ou de uma estação de trabalho - e
procura o bit EFCI na célula que estão chegando. Quando a estação de destino reconhece
as células com a definição EFCI, envia uma mensagem de controle através da de uma
célula de "gerenciamento de pesquisa" RM de volta para a origem em um intervalo
definido, que informa que a rede está congestionada. Enquanto o modo binário trabalha,
há uma defasagem entre a ocorrência do congestionamento em um switch e recepção de uma
célula RM com a informação do congestionamento indicado na origem.
O segundo tipo de ABR, "taxa relativa", acrescenta maior inteligência ao
switch, de modo que quando este se depara com um congestionamento, pode gerar e, então
direcionar uma célula RM para a(s) origem(s) que este deseja desacelerar. Este processo
elimina a maior parte da perda de tempo, que desacelera o feedback em um modo binário
puro.
A "taxa explícita" (ER) é a mais sofisticada - complexa e cara - das três.
Enquanto a taxa relativa ativa à fonte "Eu estou congestionada", ela permanece
no hardware ABR e se direciona para a origem de modo a se ajustar de maneira apropriada a
sua taxa. A taxa explícita ainda vai além: ela indica a fonte em qual taxa transmitir.
Estas informações de controle mais detalhadas teoricamente permitem que o ER envie uma
utilização de linha mais alta, fator importante em links caros de longo alcance.
Entretanto, ainda não está claro que a complexidade extra do ER e seu custo tem algum
significado econômico para as LANs de backbone de campus em que a largura da banda é
barata.
De fato as diferentes necessidades de LAN e VAN causaram uma série de discussões sobre
as decisões do design na definição do ABR. No geral, a especificação WAN floks ganha:
ela foi escrita para permitir um controle de fluxo de ponta a ponta nas longas
distâncias. Além disso, o conceito de que uma origem virtual/destino virtual (VS/VD)
introduzido permite que o loop do controle de fluxo seja terminado na extremidade Wan.
Através do VS/VD, uma portadora pode se isolar completamente da possibilidade de
estações finais que não estejam de acordo com as regras do ABR.
No entanto, caso o VS/VD seja usado em uma bondary WAN, não haverá razão para que o
controle de fluxo dentro da LAN seja o mesmo que o da WAN. Isto significa que a taxa
relativa do ABR pode ser usada no backbone de campus e a taxa explícita em uma área
ampla. Em suma, o que ocorre é que toda esta discussão em torno do controle de fluxo
baseado em taxa e baseado em crédito nada mais é que uma grande perda de tempo. Com um
VS/VD, é perfeitamente viável usar crédito dentro de uma Lan e taxa em uma WAN.
Mais ainda não se sabe quanto tempo vai levar para que se atinja a interoperabilidade
multivenda do ABR. Há um grande número de permutações de placas NIC diferentes, os
switches ATM e outros dispositivos de rede, tais como bridges LAN-to-ATM.
Entretanto, o problema não é tão complicado quanto parece. Pelo menos sem princípio, o
equipamento da rede de backbone de campus pode usar o controle de fluxo de taxa relativa.
A maioria dos switches também vai implementar as técnicas packet-discard, de modo que se
houver congestão, pacotes inteiros, e não células temporárias, serão descartados.
Na WAN, a utilização extra que o controle de fluxo de taxa explícita pode exigir de
links caros de longa distância aparecerá para portadoras. Como vão proteger a
extremidade de sua rede com switches para manter VS/VD, o ABR deve funcionar bem.
Todavia, há um caso que este último não vai trabalhar tão bem. Enquanto os switches
EFCI antigos "deveriam" ser capazes de manter o ABR de modo binário, muitos
deles foram desenvolvidos de com uma quantidade bastante reduzida de buffers de células
por porta. O ABR provavelmente vai trabalhar com estes switches dentro das LANs, porque os
desperdícios de tempo são menores.
Em uma área ampla, a combinação de um buffer inadequado e excesso de tempo necessário
para enviar o feedback para a estação de origem possivelmente significa que o ABR não
será muito usado com esses switches antigos.
Os usuários serão capazes de avaliar o desempenho do ABR no início do próximo
semestre. Enquanto vários detalhes mudaram ao longo dos últimos meses de elaboração de
especificação, o design como um todo se mantém estável há mais de seis meses.
Curiosidades
Não é de surpreender o fato de muitos compradores em potencial do ATM estarem aguardando
que sejam estabelecidos os padrões antes que possam adquirir a tecnologia, por exemplo, o
Fórum ATM lançou a especificação User-to-Network em 1993, e ela foi suplantada pelo
UNI 3.1 um ano depois.
Infelizmente, o UNI 3.1 era incompatível com o 3.0 em áreas de sinalização e canais
virtuais de sinalização, o que significava que um switch ATM rodando no UNI 3.0 não
podia não podia interoperar através de um link único com outro switch que usasse o UNI
3.0 e outro 3.1 esteja sendo executado.
A razão deste problema esta no fato do fórum, incorretamente, ter achado qual o
protocolo que o ITU selecionaria para um transporte confiável de mensagens de
sinalização. O fórum trabalhando com pouco tempo, selecionou o que achava ser a opção
mais próxima do ITU, o que se mostrou um engano. Como o Fórum considera o alinhamento
com o ITU extremamente importante, fez as alterações necessárias no UNI 3.1.
Este é um caso típico de que o desenvolvimento dos novos padrões causam muitos
desgostos. Alguns vendedores adotaram somente o UNI 3.1, achando que a indústria iria
evoluir rapidamente de modo a se adaptar às especificações mais recentes, o que também
estava errado. Como as entre o 3.0 e o 3.1 não proporcionaram qualquer tipo de nova
funcionalidade para os usuários, muitos fabricantes atrasaram as implementações do UNI
3.1.
O resultado?
Os switches que se adaptavam com dispositivos que usassem o
3.0. Hoje, o UNI 3.0 continua sendo o melhor investimento para a interoperabilidade de
sinalização.
No início deste semestre, o mercado avaliará outra especificação UNI - a UNI 4.0. Ao
contrário do que acontece com a mudança entre o 3.0 e o 3.1, este inclui maior
funcionalidade - e, sobretudo, apoio para o serviço avaiable-bit-rate (ABR). O UNI 4.0
também oferece a capacidade de especificar os parâmetros individuais da qualit of
service (QOS) no lugar das classes de serviços amplos da das UNIs anteriores e permite ao
usuário participar de uma conexão multiponto, assim como uma vídeoconferência.
Contudo, o UNI 4.0 tem uma novidade - uma coleção de documentos. O comitê Técnico do
Fórum inicial trabalha em um 4.0 desenvolvido para epecificações separadas para
gerenciamento de tráfego e sinalização. Então ao invés de um único documento 4.0,
teremos uma coleção de especificações - Signaling 4.0 - e todas as várias
definições de interface de Physical Layer.
Neste interim, a nova especificação Private Network Node Interface (P-NNI) traz a marca
da P-NNI 1.0. A P-NNI deveria ter sucedido a P-NNI fase 0.
Além de oferecer benefícios significativos a seus usuários, o UNI 4.0 contribuirá para
a confusão e o medo que paira no ar. Por exemplo, será que os switches ATM tem de manter
o UNI 3.0, o3.1 e o 4.0 ao mesmo tempo? É viável ter códigos para manter os três ativo
em um switch simultaneamente, mas nada é de graça: o software extra adiciona muito mais
complexidade e, portanto, vai precisar de mais memória. Pior, será quase impossível
testar todas as mudanças dos UNIs quando o novo software for lançado.
Conclusão
O maior desafio para o ATM nos próximos anos é o medo do que está por vir e deixar para
trás o encerramento do ciclo que a maioria das novas tecnologias tem de enfrentar. As
queixas de que os "padrões do ATM não estão completos", apesar de
verdadeiras, são irrelevantes; os padrões adicionais sempre serão necessários.
Por exemplo, o IP tem mais de 25 anos e está em constante evolução. Se a Internet
Enginnering Task Force (IETF) ainda está aprovando Requests for Comment (RFC) depois de
todos esses anos, não é surpresa alguma o fato que o Fórum ATM ainda tem alguns anos de
trabalho pela frente.
Já existe uma grande variedade de padrões sólidos que permitem a implantação de uma
rede ATM extremamente eficiente. As características LANE, controle de fluxo ABR e
Gerenciamento de tráfego 4.0, as especificações Signaling 4.0 e Private Network Node
Interface 1.0 ou estão totalmente completas ou prestes a serem aprovadas dentro de mais
alguns meses.
Entretanto, as especificações MPOA ainda levará mais de um ano. E o trabalho para se
definir como manter a voz sobre o ATM acaba de começar.
Enquanto a lista de "afazeres" do ATM ainda é longa, o Fórum já verificou as
tarefas mais prioritárias. Agora o que os engenheiros terminaram a primeira versão das
especificações necessárias para tornar o ATM funcional, resta aos gurus a tarefa de
convencer os clientes de que o ATM está pronto para a estréia.
Fontes
Os fatos apresentados no conteúdo deste trabalho foram baseados em matérias publicadas
por profissionais graduados na área de informática pelas revistas LAN TIMES BRASIL -
abril/96 e BCR BRASIL - julho/96.
Todos os textos sobre informática contidos neste Site
são de propriedade do autor.
Você pode copiar, mas não usar o mesmo texto para seu próprio Site.
© Copyright 1997-2002 Alexandre Terra Iafullo
Todos os direitos reservados.