segunda-feira, 15 de novembro de 2010

Rede Privada Virtual - VPN

Segue abaixo um texto muito interessante sobre VPN.

O uso de Redes Privadas Virtuais representa uma alternativa interessante na
racionalização dos custos de redes corporativas oferecendo "confidencialidade" e integridade no transporte
de informações através de redes públicas.
^
IntroduçãoA idéia de utilizar uma rede pública como a Internet em vez de linhas privativas para implementar redes corporativas é denominada deVirtual Private Network (VPN) ou Rede Privada Virtual. As VPNs são túneis de criptografia entre pontos autorizados, criados através da Internet ou outras redes públicas e/ou privadas para transferência de informações, de modo seguro, entre redes corporativas ou usuários remotos.
A segurança é a primeira e mais importante função da VPN. Uma vez que dados privados serão transmitidos
pela Internet, que é um meio de transmissão inseguro, eles devem ser protegidos de forma a não permitir que sejam modificados ou interceptados.
Outro serviço oferecido pelas VPNs é a conexão entre corporações (Extranets) através da Internet, além de possibilitar conexões dial-upcriptografadas que podem ser muito úteis para usuários móveis ou remotos, bem como filiais distantes de uma empresa.
Uma das grandes vantagens decorrentes do uso das VPNs é a redução de custos com comunicações
corporativas, pois elimina a necessidade de links dedicados de longa distância que podem ser substituídos
pela Internet. As LANs podem, através de linksdedicados ou discados, conectar-se a algum provedor de acesso local e interligar-se a outras LANs, possibilitando o fluxo de dados através da Internet. Esta solução pode ser bastante interessante sob o ponto de vista econômico, sobretudo nos casos em que enlaces internacionais ou nacionais de longa distância estão envolvidos. Outro fator que simplifica a operacionalização da WAN é que a conexão LAN-Internet-LAN fica parcialmente a cargo dos provedores de acesso.
^
Aplicações para redes privadas virtuaisAbaixo, são apresentadas as três aplicações ditas mais importantes para as VPNs.
ACESSO REMOTO VIA INTERNET
O acesso remoto a redes corporativas através da Internet pode ser viabilizado com a VPN através da ligação local a algum provedor de acesso (Internet Service Provider - ISP). A estação remota disca para o provedor de acesso, conectando-se à Internet e o software de VPN cria uma rede virtual privada entre o usuário remoto e o servidor de VPN corporativo através da Internet.

CONEXÃO DE LANS VIA INTERNET
Uma solução que substitui as conexões entre LANs através de circuitos dedicados de longa distância é a
utilização de circuitos dedicados locais interligando-as à Internet. O software de VPN assegura esta interconexão formando a WAN corporativa.
A depender das aplicações também, pode-se optar pela utilização de circuitos discados em uma das pontas,
devendo a LAN corporativa estar, preferencialmente, conectada à Internet via circuito dedicado local ficando
disponível 24 horas por dia para eventuais tráfegos provenientes da VPN.

CONEXÃO DE COMPUTADORES NUMA INTRANET
Em algumas organizações, existem dados confidenciais cujo acesso é restrito a um pequeno grupo de usuários. Nestas situações, redes locais departamentais são implementadas fisicamente separadas da LAN corporativa. Esta solução, apesar de garantir a "confidencialidade" das informações, cria dificuldades de acesso a dados da rede corporativa por parte dos departamentos isolados.
As VPNs possibilitam a conexão física entre redes locais, restringindo acessos indesejados através da inserção de um servidor VPN entre elas. Observe que o servidor VPN não irá atuar como um roteador entre a rede departamental e o resto da rede corporativa uma vez que o roteador possibilitaria a conexão entre as duas redes permitindo o acesso de qualquer usuário à rede departamental sensitiva. Com o uso da VPN o administrador da rede pode definir quais usuários estarão credenciados a atravessar o servidor VPN e acessar os recursos da rede departamental restrita. Adicionalmente, toda comunicação ao longo da VPN pode ser criptografada assegurando a "confidencialidade" das informações. Os demais usuários não credenciados sequer enxergarão a rede departamental.

^
Requisitos básicosNo desenvolvimento de soluções de rede, é bastante desejável que sejam implementadas facilidades de controle de acesso a informações e a recursos corporativos. A VPN deve dispor de recursos para permitir o acesso de clientes remotos autorizados aos recursos da LAN corporativa, viabilizar a interconexão de LANs de forma a possibilitar o acesso de filiais, compartilhando recursos e informações e, finalmente, assegurar privacidade e integridade de dados ao atravessar a Internet bem como a própria rede corporativa. A seguir são enumeradas características mínimas desejáveis numa VPN:
Autenticação de Usuários Verificação da identidade do usuário, restringindo o acesso às pessoas autorizadas.
Deve dispor de mecanismos de auditoria, provendo informações referentes aos acessos
efetuados - quem acessou, o quê e quando foi acessado.
Gerenciamento de Endereço O endereço do cliente na sua rede privada não deve ser divulgado, devendo-se adotar endereços fictícios para o tráfego externo.
Criptografia de Dados Os dados devem trafegar na rede pública ou privada num formato cifrado e, caso sejam interceptados por usuários não autorizados, não deverão ser decodificados, garantindo a
privacidade da informação. O reconhecimento do conteúdo das mensagens deve ser exclusivo dos usuários autorizados.
Gerenciamento de Chaves
O uso de chaves que garantem a segurança das mensagens criptografadas deve funcionar
como um segredo compartilhado exclusivamente entre as partes envolvidas. O gerenciamento de chaves deve garantir a troca periódica das mesmas, visando manter a comunicação de forma segura.
Suporte a Múltiplos Protocolos
Com a diversidade de protocolos existentes, torna-se bastante desejável que uma VPN suporte protocolos padrão de fato usadas nas redes públicas, tais como IP (Internet Protocol), IPX (Internetwork Packet Exchange), etc.
^
TunelamentoAstunelamento cuja existência é anterior às VPNs.
Ele pode ser definido como processo de encapsular um protocolo dentro de outro. O uso do tunelamento nas VPNs incorpora um novo componente a esta técnica: antes de encapsular o pacote que será transportado, este é criptografado de forma a ficar ilegível caso seja interceptado durante o seu transporte. O pacote criptografado e encapsulado viaja através da Internet até alcançar seu destino onde é desencapsulado e decriptografado, retornando ao seu formato original. Uma característica importante é que pacotes de um
determinado protocolo podem ser encapsulados em pacotes de protocolos diferentes. Por exemplo, pacotes
de protocolo IPX podem ser encapsulados e transportados dentro de pacotes TCP/IP.
O protocolo de tunelamento encapsula o pacote com um cabeçalho adicional que contém informações de
roteamento que permitem a travessia dos pacotes ao longo da rede intermediária. Os pacotes encapsulados
são roteados entre as extremidades do túnel na rede intermediária. Túnel é a denominação do caminho lógico
percorrido pelo pacote ao longo da rede intermediária Após alcançar o seu destino na rede intermediária, o
pacote é desencapsulado e encaminhado ao seu destino final. A rede intermediária por onde o pacote trafegará pode ser qualquer rede pública ou privada.
Note que o processo de tunelamento envolve encapsulamento, transmissão ao longo da rede intermediária e
desencapsulamento do pacote.

^
Protocolos de tunelamentoPara se estabelecer um túnel é necessário que as suas extremidades utilizem o mesmo protocolo de tunelamento.
O tunelamento pode ocorrer na camada 2 ou 3 (respectivamente enlace e rede) do modelo de referência
OSI (Open Systems Interconnection).
Tunelamento em Nível 2 - Enlace - (PPP sobre IP)
O objetivo é transportar protocolos de nível 3, tais como o IP e IPX na Internet. Os protocolos
utilizam quadros como unidade de troca, encapsulando os pacotes da camada 3 (como IP/IPX)
em quadros PPP (Point-to-Point Protocol). Como exemplos podemos citar:
PPTP (Point-to-Point Tunneling Protocol) da Microsoft permite que o tráfego IP, IPX e NetBEUI sejam criptografados e encapsulados para serem enviados através de redes IP privadas ou públicas como a Internet. L2TP (Layer 2 Tunneling Protocol) da IETF (Internet Engineering Task Force) permite que o tráfego IP, IPX e NetBEUI sejam criptografados e enviados através de canais de comunicação de datagrama ponto a ponto tais como IP, X25, Frame Relay ou ATM. L2F (Layer 2 Forwarding) da Cisco é utilizada para VPNs discadas.
Tunelamento em Nível 3 - Rede - (IP sobre IP)
Encapsulam pacotes IP com um cabeçalho adicional deste mesmo protocolo antes de enviá-los
através da rede.
O IP Security Tunnel Mode (IPSec) da IETF permite que pacotes IP sejam criptografados e encapsulados com cabeçalho adicional deste mesmo protocolo para serem transportados numa rede IP pública ou privada. O IPSec é um protocolo desenvolvido para IPv6, devendo, no futuro, se constituir como padrão para todas as formas de VPN caso o IPv6 venha de fato substituir o IPv4. O IPSec sofreu adaptações possibilitando, também, a sua utilização com o IPv4.
^
O funcionamento dos túneisNas tecnologias orientadas à camada 2 (enlace), um túnel é similar a uma sessão, onde as duas extremidades do túnel negociam a configuração dos parâmetros para estabelecimento do túnel, tais como endereçamento, criptografia e parâmetros de compressão. Na maior parte das vezes, são utilizado s protocolos que implementam o serviço de datagrama. A gerência do túnel é realizada através protocolos de manutenção. Nestes casos, é necessário que o túnel seja criado, mantido e encerrado. Nas tecnologias de camada 3, não existe a fase de manutenção do túnel.
Uma vez que o túnel é estabelecido os dados podem ser enviados. O cliente ou servidor do túnel utiliza um
protocolo de tunelamento de transferência de dados que acopla um cabeçalho preparando o pacote para o
transporte. Só então o cliente envia o pacote encapsulado na rede que o roteará até o servidor do túnel. Este
recebe o pacote, desencapsula removendo o cabeçalho adicional e encaminha o pacote original à rede destino.
O funcionamento entre o servidor e o cliente do túnel é semelhante.
^
Protocolos × Requisitos de tunelamentoOs protocolos de nível 2, tais como PPTP e L2TP, foram baseados no PPP, e, como conseqüência, herdaram muito de suas características e funcionalidades. Estas características e suas contrapartes de nível 3 são
analisadas juntamente com alguns dos requisitos básicos das VPNs:
AUTENTICAÇÃO DE USUÁRIO
Os protocolos de tunelamento da camada 2 herdaram os esquemas de autenticação do PPP e os métodos
EAP (Extensible Authentication Protocol). Muitos esquemas de tunelamento da camada 3 assumem que as
extremidades do túnel são conhecidas e autenticadas antes mesmo que ele seja estabelecido. Uma exceção
é o IPSec que provê a autenticação mútua entre as extremidades do túnel. Na maioria das implementações
deste protocolo, a verificação se dá a nível de máquina e não de usuário. Como resultado, qualquer usuário
com acesso às máquinas que funcionam como extremidades do túnel podem utilizá-lo. Esta falha de segurança ,pode ser suprida quando o IPSec é usado junto com um protocolo de camada de enlace como o L2TP.
SUPORTE A TOKEN CARD
Com a utilização do EAP, os protocolos de tunelamento de camada de enlace podem suportar uma variedade de métodos de autenticação, tais como senhas e cartões inteligentes (smart cards). Os protocolos de camada 3 também podem usar métodos similares, como, por exemplo, o IPSec que define a autenticação de chave pública durante a negociação de parâmetros feita pelo ISAKMP (Internet Security Association and Key Management Protocol).
ENDEREÇAMENTO DINÂMICO
O tunelamento na camada 2 suporta alocação dinâmica de endereços baseada nos mecanismos de
negociação do NCP (Network Control Protocol). Normalmente, esquemas de tunelamento na camada 3
assumem que os endereços foram atribuídos antes da inicialização do túnel.
COMPRESSÃO DE DADOS
Os protocolos de tunelamento da camada 2 suportam esquemas de compressão baseados no PPP. O IETF
está analisando mecanismos semelhantes, tais como a compressão de IP, para o tunelamento na camada 3.
CRIPTOGRAFIA DE DADOS
Protocolos de tunelamento na camada de enlace suportam mecanismos de criptografia baseados no PPP.
Os protocolos de nível 3 também podem usar métodos similares. No caso do IPSec são definidos vários
métodos de criptografia de dados que são executados durante o ISAKMP. Algumas implementações do protocolo L2TP utilizam a criptografia provida pelo IPSec para proteger cadeias de dados durante a sua transferência entre ,as extremidades do túnel.
GERENCIAMENTO DE CHAVES
O MPPE (Microsoft Point-to-Point Encryption), protocolo de nível de enlace, utiliza uma chave gerada durante a autenticação do usuário, atualizando-a periodicamente. O IPSec negocia uma chave comum através do ISAKMP e, também, periodicamente, faz sua atualização.
SUPORTE A MÚLTIPLOS PROTOCOLOS
O tunelamento na camada de enlace suporta múltiplos protocolos o que facilita o tunelamento de clientes para
acesso a redes corporativas utilizando IP, IPX, NetBEUI e outros. Em contraste, os protocolos de tunelamento da camada de rede, tais como o IPSec, suportam apenas redes destino que utilizam o protocolo IP.
^
Tipos de túneisOs túneis podem ser criados de 2 diferentes formas - voluntárias e compulsórias:
Túnel Voluntário - um cliente emite uma solicitação VPN para configurar e criar um túnel voluntário. Neste caso, o computador do usuário funciona como uma das extremidades do túnel e, também, como cliente do túnel.
Túnel Compulsório - um servidor de acesso discado VPN configura e cria um túnel compulsório. Neste caso,
o computador do cliente não funciona como extremidade do túnel. Outro dispositivo, o servidor de acesso remoto, localizado entre o computador do usuário e o servidor do túnel, funciona como uma das extremidades e atua como o cliente do túnel.
TUNELAMENTO VOLUNTÁRIO
Ocorre quando uma estação ou servidor de roteamento utiliza um software de tunelamento cliente para criar
uma conexão virtual para o servidor do túnel desejado. O tunelamento voluntário pode requerer conexões IP
através de LAN ou acesso discado.
No caso de acesso discado, o mais comum é o cliente estabelecer a conexão discada antes da criação do túnel. Nas LANs, o cliente já se encontra conectado à rede que pode prover o roteamento de dados encapsulados para o servidor de túnel selecionado. Este é o caso de clientes numa LAN corporativa que inicializa túneis para alcançar uma subrede privada na mesma rede.
TUNELAMENTO COMPULSÓRIO
O computador ou dispositivo de rede que provê o túnel para o computador cliente é conhecido de diversas
formas: FEP (Front End Processor) no PPTP, LAC (L2TP Access Concentrator) no L2TP ou IP Security Gateway no caso do IPSec. Doravante, adotaremos o termo FEP para denominar esta funcionalidade - ser capaz de estabelecer o túnel quando o cliente remoto se conecta.

No caso da Internet, o cliente faz uma conexão discada para um túnel habilitado pelo servidor de acesso no
provedor (ISP). Por exemplo, uma companhia pode ter um contrato com uma ou mais provedores para
disponibilizar um conjunto de FEPs em âmbito nacional. Estas FEPs podem estabelecer túneis sobre a Internet para um servidor de túnel conectado à rede corporativa privada, possibilitando a usuários remotos o acesso à rede corporativa através de uma simples ligação local.
Esta configuração é conhecida como tunelamento compulsório porque o cliente é compelido a usar um túnel
criado pelo FEP. Uma vez que a conexão é estabelecida, todo o tráfego "de/para" o cliente é automaticamente enviado através do túnel. No tunelamento compulsório, o cliente faz uma conexão PPP. Um FEP pode ser configurado para direcionar todas as conexões discadas para um mesmo servidor de túnel ou, alternativamente, fazer o tunelamento individual baseado na identificação do usuário ou no destino da conexão.
Diferente dos túneis individualizados criados no tunelamento voluntário, um túnel entre o FEP e o servidor de
túnel pode ser compartilhado por múltiplos clientes discados. Quando um cliente disca para o servidor de acesso (FEP) e já existe um túnel para o destino desejado, não se faz necessária a criação de um novo túnel redundante. O próprio túnel existente pode transportar, também, os dados deste novo cliente. No tunelamento compulsório com múltiplos clientes, o túnel só é finalizado no momento em que o último usuário do túnel se desconecta.
^
IPSEC – Internet Protocol SecurityO IPSec é um protocolo padrão de camada 3 projetado pelo IETF que oferece transferência segura de informações fim a fim através de rede IP pública ou privada. Essencialmente, ele pega pacotes IP privados, realiza funções de segurança de dados como criptografia, autenticação e integridade, e então encapsula esses pacotes protegidos em outros pacotes IP para serem transmitidos. As funções de gerenciamento de chaves também fazem parte das funções do IPSec.
Tal como os protocolos de nível 2, o IPSec trabalha como uma solução para interligação de redes e conexões via linha discada. Ele foi projetado para suportar múltiplos protocolos de criptografia possibilitando que cada usuário escolha o nível de segurança desejado.
Os requisitos de segurança podem ser divididos em 2 grupos, os quais são independentes entre si, podendo
ser utilizado de forma conjunta ou separada, de acordo com a necessidade de cada usuário:
Autenticação e Integridade; Confidencialidade.
Para implementar estas características, o IPSec é composto de 3 mecanismos adicionais:
AH - Autentication Header; ESP - Encapsulation Security Payload;
ISAKMP - Internet Security Association and Key Management Protocol.
NEGOCIAÇÃO DO NÍVEL DE SEGURANÇA O ISAKMP combina conceitos de autenticação, gerenciamento de chaves e outros requisitos de segurança necessários às transações e comunicações governamentais, comerciais e privadas na Internet. Com o ISAKMP, as duas máquinas negociam os métodos de autenticação e segurança dos dados, executam a autenticação mútua e geram a chave para criptografar os dados.
Trata-se de um protocolo que rege a troca de chaves criptografadas utilizadas para decifrar os dados. Ele define procedimentos e formatos de pacotes para estabelecer, negociar, modificar e deletar as SAs
(Security Associations). As SAs contêm todas as informações necessárias para execução de serviços variados de segurança na rede, tais como serviços da camada IP (autenticação de cabeçalho e encapsulamento), serviços das camadas de transporte, e aplicação ou auto-proteção durante a negociação do tráfego. Também define pacotes para geração de chaves e autenticação de dados. Esses formatos provêm consistência para a transferência de chaves e autenticação de dados que independem da técnica usada na geração da chave, do algoritmo de criptografia e do mecanismo de autenticação.
O ISAKMP pretende dar suporte para protocolos de segurança em todas as camadas da pilha da rede. Com a centralização do gerenciamento dos SAs, o ISAKMP minimiza as redundâncias funcionais dentro de cada protocolo de segurança e também pode reduzir o tempo gasto durante as conexões através da negociação da pilha completa de serviços de uma só vez.
AUTENTICAÇÃO E INTEGRIDADE
A autenticação garante que os dados recebidos correspondem àqueles originalmente enviados, assim como
garante a identidade do emissor. Integridade significa que os dados transmitidos chegam ao seu destino
íntegros, eliminando a possibilidade de terem sido modificados no caminho sem que isto pudesse ser
detectado.
O AH é um mecanismo que provê integridade e autenticação dos datagramas IP. A segurança é garantida
através da inclusão de informação para autenticação no pacote a qual é obtida através de algoritmo aplicado
sobre o conteúdo dos campos do datagrama IP, excluindo-se aqueles que sofrem mudanças durante o
transporte. Estes campos abrangem não só o cabeçalho IP como todos os outros cabeçalhos e dados do
usuário. No IPv6, o campo hop-count e o time-to-live (TTL) do IPv4 não são utilizados, pois são modificados ao longo da transferência.
Para alguns usuários o uso da autenticação pode ser suficiente não sendo necessária a "confidencialidade".
No IPV6, o AH normalmente é posicionado após os cabeçalhos de fragmentação e End-to-End, e antes do
ESP e dos cabeçalhos da camada de transporte (TCP ou UDP, por exemplo).
CONFIDENCIALIDADE
Propriedade da comunicação que permite que apenas usuários autorizados entendam o conteúdo transportado.
Desta forma, os usuários não autorizados, mesmo tendo capturado o pacote, não poderão ter acesso às
informações nele contidas. O mecanismo mais usado para prover esta propriedade é chamado de criptografia. O serviço que garante a "confidencialidade" no IPSec é o ESP - Encapsulating Security Payload. O ESP também provê a autenticação da origem dos dados, integridade da conexão e serviço anti-reply. A "confidencialidade" independe dos demais serviços e pode ser implementada de 2 modos - transporte e túnel. No primeiro modo, o pacote da camada de transporte é encapsulado dentro do ESP, e, no túnel, o datagrama IP é encapsulado inteiro dentro da cabeçalho do ESP.
^
ConclusãoAs VPNs podem se constituir numa alternativa segura para transmissão de dados através de redes públicas ou privadas, uma vez que já oferecem recursos de autenticação e criptografia com níveis variados de segurança, possibilitando eliminar os links dedicados de longa distância, de alto custo, na conexão de WANs.
Entretanto, em aplicações onde o tempo de transmissão é crítico, o uso de VPNs através de redes externas
ainda deve ser analisado com muito cuidado, pois podem ocorrer problemas de desempenho e atrasos na
transmissão sobre os quais a organização não tem nenhum tipo de gerência ou controle, comprometendo a
qualidade desejada nos serviços corporativos. A decisão de implementar ou não redes privadas virtuais requer uma análise criteriosa dos requisitos, principalmente aqueles relacionados a segurança, custos, qualidade de serviço e facilidade de uso que variam de acordo com o negócio de cada organização.
^
Referências"Virtual Private Networking: An Overview" . 29 de Maio de 1998. On-Line.
http://www.microsoft.com/workshop/server/feature/vpnovw.asp. 26 de Junho de 1998.
Maughan, Douglas; Schertler, Mark; Schneider, Mark; Turner, Jeff. "Internet Security Association and Key
Management Protocol (ISAKMP)". 10 de Março de 1998. On-Line. http://www.imib.med.tu-dresden.de/imib/Internet/Literatur/
ISAKMP/draft-ietf-ipsec-isakmp-09.txt. 28 de Junho de 1998.
"Virtual Private Network" . 1998. On-Line. http://www.stts.com.br/vpn.htm. 28 de Junho de 1998.
"IPSEC - Internet Protocol Security". Security Project at the TCM Laboratory. On-Line.
http://www.tcm.hut.fi/Tutkimus/IPSEC/ipsec.html. 20 de Junho de 1998.
Werner, José. "Tecnologias para Implantação de Redes Virtuais Privadas" . Fórum Nacional sobre
Segurança de Redes e Telecomunicações. Março/1998. 20 de Junho de 1998.
Henthorn, Alex. "VPN - Virtual Private Networks" . Livingston Enterprises, Inc
. http://www.cernet.com.br/Livingston/napl/vpn.htm. 22 de Junho de 1998.
"VPNs e IP Tunneling". On-Line. http://mingus.modulo.com.br/funciona.htm. 22 de Junho de 1998.

terça-feira, 9 de novembro de 2010

Livros e assuntos sobre Wireless

Navegando nos fóruns por aí, encontrei um post sobre redes wireless, dei uma olhada nos sites que indicavam para aprendizado e estou repassando para quem interessar!

Segue abaixo o post com resposta de outros usuários:

Lightbulb Melhores Livros de wireless e cálculos de enlace


Estou lendo o ebook Redes sem fio no Mundo, é bom, mas ainda não me agradou no início sobre os cálculos, deixou dúvidas, ex. muito resumido em Zona de Fresnel, Cálculo de viabilidade de link, etc. Não sei se sou muito exigente, mas goste de variedade em obras e autores, até porque ninguém é perfeito e ainda tem a tradução, e os erros de digitação que mais me encomodam.
Estou lendo tambem a apostila do Instituto Online 2010. Qualquer conteúdo referente a wireless, RF, cálculos, estou muito interessado. Sites, ebooks, etc.

Resposta: 

Padrão Re: Melhores Livros de wireless e cálculos de enlace 

Para redes em geral indico esse: Redes de Computadores e a Internet: Uma Abordagem Top-down - Submarino.com.br


Para Wireless indico:

WI-FI Instale e configure e use redes wireles (sem fio) - John Ross - Editora Alta Books - ISBN: 857608024-9

INTRODUÇÃO A TECNOLOGIA WIRELESS - HENRIQUE CARMINE - PRODUÇÃO INDEPENDENTE

Alguns locais para consultar:
1) http://www.clubedasredes.eti.br
2) Apostilando.com 2009:: Apostilas de Redes
3) Projeto Aprenda em Casa - Cursos gratuitos
4) iMasters - Por uma Internet mais criativa e din

E, para se manter atualizado no dia-a-dia, o ideal é consultar os portais.

1) Wi-Fi Alliance Wi-Fi Alliance: Home
2) Wireless Resource Center palowireless Wireless Resource Center
3) Wi-Fi Planet Wi-Fi Planet - The Source for Wi-Fi Business and Technology
4) Comunidade Wireless Brasil ComUnidade WirelessBRASIL - Portal Independente de Telecomunicaes
5) Teleco teleco.com.br
É isso aí galera, boa leitura!!!

***para ajudar o blog a crescer clique em agum anuncio do google...

quinta-feira, 4 de novembro de 2010

Quanto tempo leva para quebrar uma chave WPA ou WPA2?

Existe vários vídeos no Youtube e comentários em blogs descrevendo como "quebrar" chaves WPA e WPA2. O WEP tem um bug grave, que permite com que a chave seja descoberta rapidamente, mas no caso do WPA ou WPA2 os únicos métodos publicados e provados são dicionário ou força bruta.

Existe um post correndo na Internet sobre dois pesquisados japoneses que teriam descoberto uma maneira de quebrar parcialmente o WPA TKIP (esse suposto método não atingiria WPA AES nem o WPA2). Isso foi inclusive comentado aqui no Under-Linux em um post recente de outro blog.

Quando falo em "suposto método" é porque todos os textos que apareceram na Internet eram muito parecidos, mas depois disso não vi mais nenhum comentário. O nome dos pesquisadores aparentemente são válidos (pois existem textos relacionados a criptografia nomeando os dois), mas não encontrei nenhuma referência ao texto que eles iriam divulgar no evento que ocorreu semana passada. Além disso, em muitos sites (como Yahoo Tech) a notícia foi removida.

Em resumo: ninguém apareceu até agora para confirmar se a dedução em "matematiquês" está correta ou não.

Mas vamos considerar que o WPA TKIP seja realmente passível de quebra por algum algoritmo, então vamos nos focar no WPA AES e WPA2.

Em ambos os protocolos, como citei acima, a chave só pode ser quebrada (até onde se sabe) via ataque de dicionário ou força bruta.

O ataque de dicionário está relacionado à má escolha da chave. Por exemplo, um administrador escolhe como chave a seqüência "123456789". No ataque de dicionário o atacante possui uma lista de palavras (o dicionário) contendo várias senhas possíveis e o programa atacante tenta todas elas. Se a chave foi mal escolhida pelo administrador, ela deve estar na lista de palavras e eventualmente o programa identifica, informando o hacker.

Vale salientar que o programa de ataque tem que tentar uma por uma todas as chaves. Se for uma lista de um milhão de palavras, o programa vai testar todas.

Existe para download nos sites de hackers, várias listas de dicionários que um atacante pode usar e tentar a sorte. Mas é apenas isso: pura sorte (e falta de consciência do administrador da rede atacada).

Quando vemos os vídeos do Youtube, descrevendo como se ataca WPA ou WPA2, são ataques de dicionário. Obviamente que o "atacante" neste caso teve o cuidado de colocar uma chave WPA que estava no dicionário usado, então ele tem sucesso. A primeira vista, dá impressão que ele invadiu a rede em menos de 1 minuto, mas na verdade ele estava apenas demonstrando que o ataque precisa de sorte: o administrador tem que escolher uma senha fácil e que "por sorte" estava no dicionário pequeno que ele usou.

No entanto, qualquer senha que tenha sido escolhida com um pouco de cuidado, não estará no dicionário. Não estou falando de senhas como "6$gs5SD45Diad", mas coisas como "AbC345SoRtE" já são relativamente boas.

Nesse caso, quando o administrador fez uma boa escolha, a única alternativa do atacante é testar TODAS as chaves possíveis, uma a uma. Esse é o chamado método da força bruta.

Nesse caso, quanto tempo levaria para um atacante testar todas as chaves?

Lembre, cada chave pode ter caracteres maiúsculos e minúsculos, além de símbolos (%$&#@) e números. Na verdade, pode inclusive ser composta de qualquer número hexadecimal de 00 a FF. Mas vamos focar apenas no tradicional: letras, números e símbolos. Isso dá aproximadamente 70 caracteres possíveis.

Assim o atacante tem que tentar todas as chaves de 1 caracter (70 opções, fácil), depois todas de 2 caracteres (70 x 70 = 4.900 opções diferentes), depois todas de 3 caracteres (343.000 opções) e assim diante.

Além disso, por uma questão de estatística, em média, será necessário testar metade das opções para encontra a chave correta. Assim se levar 2 horas para testar todas as combinações, em média será necessário 1 hora para achar a chave correta (quem não gosta de estatística, apenas acredite em mim).

Então, vamos responder à pergunta: quanto tempo em média um hacker irá demorar para encontrar a chave correta?

Antes, algumas informações básicas: um bom computador deve ser capaz de testar 100 chaves por segundo. Vamos então imaginar que o hacker tenha um super computador, capaz de testar 100.000 chaves por segundo!!! Vamos dar a ele muito dinheiro, ele tem um mega-super-blaster computador, tudo bem. Jóia.

Também vamos lembrar algumas informações úteis:
- um ano tem 31.536.000 segundos
- a chance de ganhar na megasena com um jogo de 6 dezenas é de 1 em 50 milhões (aproximadamente)
- estima-se que o universo tenha 14,5 bilhões de anos.

Vamos ver as chances de sucesso desse hacker contra um administrador que escolheu uma boa senha (ou seja, uma senha que não esteja em um dicionário).

Chaves de 5 Caracteres

Com uma chave de 5 caracteres, temos 70x70x70x70x70 combinações (para os matemáticos de plantão, não quero falar de exponenciação) ou aproximadamente 1,68 bilhões de combinações.
O mega computador iria demorar quase 16.807 segundos para testar todas. Estatisticamente seria necessário, em média, metade desse tempo para encontrar a chave, ou 8.404 segundo ou quase 2 horas e meia.

Ok, nada mal. Parece fácil, basta ter um super computador. 5 não é um bom tamanho. Vamos continuar

Chave de 10 Caracteres

Teriamos 70x70x70x70x70x70x70x70x70x70 possibilidade ou mais de 2,8 quatrilhões de opções (chega quase na fortuna do Tio Patinhas). Usando o mega-blaster computer, dá um tempo 1,5 milhões de anos em média.

A chance dele conseguir encontrar essa chave em um prazo de 1 ano é menor que 1 em 1 milhão.

Vamos subir um pouco mais

Chave de 20 Caracteres

O padrão 802.11i recomenda que chave seja de pelo menos 20 caracteres. Nesse caso (não vou escrever "70x" vinte vezes) dá um número gigantesco de opções. Com o super-mega-blaster computador levaria 318 trilhões de vezes a idade do Universo. Ou seja, o hacker necessitaria que o Universo surgisse de novo 318 trilhões de vezes para ele encontrar a chave.

Mas vamos um pouco mais além. Vamos supor que o hacker tem um Deep Blue, o super computador da IBM que ganhou do campeão de xadrez (e mal perdedor) Garry Kasparov. O Deep Blue fazia 5 bilhões de operações por segundo. Para verificar uma chave são necessárias várias operações, mas vamos fazer de conta que ele conseguisse testar 1 chave por operação. Qual seria o tempo necessário? 92 sextilhões de anos, em média ou "apenas" 6 bilhões de vezes mais que o nosso universo existe.

Agora vamos pensar que esse hacker consiga cobrir todo o planta Terra com Deep Blues. Colocando 10 computadores por metro quadrado (inclusive sobre mares, geleiras e florestas). Isso daria 5,1 quintilhões de computadores trabalhando em rede. O tempo cairia para 18.000 anos em média.

Chave de 64 Caracteres

O tamanho máximo permitido para uma chave WPA ou WPA2 é de 64 caracteres.

O tempo para um hacker quebrar uma chave de 64 caracteres usando o planeta Terra coberto de Deep Blues seria de 2,7E85 anos (escreva 27 e depois coloque mais 84 zeros). É um número maior que a quantidade estimada de partículas (átomos) no Universo.

Agora vamos imaginar que o nosso hacker tenha assistido Guerra nas Estrelas e queira construir uma Estrela da Morte Deep Blue. Um objeto do tamanho do nosso Sol, totalmente recheado de Deep Blue. Ele teria que evitar o problema da atração gravitacional, porque tanta massa transformaria esse objeto em um buraco negro. Mas ele tem o lado negro da força com ele, então ele resolveria esse problema.

Sem aprofundar em detalhes, o tempo cairia para "apenas" 1,17E71 anos. Escreva ai: 117 e depois mais 69 zeros. Se não estou enganado isso se leria 117 duotrigintilhões de anos.

Resumo

Os ataques originados em bugs de operação são um problema real para qualquer sistema de criptografia (quer seja wireless, túneis IPSec, etc.). No entanto, uma escolha apropriada de chaves é o suficiente para proteger de maneira segura qualquer sistema wireless que use um protocolo seguro.
**  para ajudar o site a crescer clique nos anúncios do Google logo abaixo.

Como um cliente IPv6 pode, sem querer, derrubar um servidor IPv4

Existem hoje várias rede IPv6 no mundo, no entanto muitos serviços e sites só estão disponíveis via IPv4. Então se usa o NAT ou Proxy como mecanismo para permitir com que as redes IPv6 "enxerguem" o mundo IPv4. Até ai tudo bem.

No entanto existe risco de, alguma forma, um cliente IPv6 causar transtorno (mesmo que involuntariamente) em servidores IPv4? A resposta é sim, desde que esse servidores IPv4 estejam mal configurados ou mal preparados.

Quando a aplicação IPv4 utiliza apenas os parâmetros vindos da camada de transporte (ex.: TCP ou UDP) e camadas inferiores, não existe grande risco, porque essas informações são seguras (ou foram criadas na rede local ou transformadas adequadamente pelo NAT/Proxy).

O problema é quando a aplicação utiliza informações de endereçamento vindas da camada de aplicação. O NAT não altera as informações da camada de aplicação e o Proxy pode alterar, mas para pior: pode incluir informações sobre o IPv6 da estação que originou a requisição.

Vamos exemplificar: os servidores Proxy normalmente utilizam o cabeçalho "Via" para informar do seu trabalho (informar que a requisição passou por um Proxy) e normalmente inserem o IP original nesse cabeçalho.

Alguns sites usam a informação do cabeçalho Via em suas aplicações. As vezes para tentar bloquear usuários indesejados atrás de NAT (sem bloquear os demais usuários do mesmo Proxy), outras vezes para algo mais simples como log e track (saber qual usuários acessou cada página, mesmo estando ambos atrás do mesmo Proxy).

Toda e qualquer informação da camada de aplicação pode ser falsificada pelo usuário, então deveria ser tratada com cuidado e verificada antes de ser processada. No entanto sabemos que isso não ocorre na vida prática: na pressa, o desenvolvedor cria a aplicação da maneira mais rápida possível, então fica sem tempo de fazer verificações e IFs nos parâmetros de entrada.

O que ocorre então, se um servidor web, que usa o cabeçalho Via para fazer log detalhado dos usuários, encontra um IPv6?No pior caso, pode derrubar o servidor, mas acho pouco provável que alguém escreva uma aplicação tão ruim.

O mais provável é que o usuário IPv6 atrás de um Proxy receba uma mensagem de erro ou simplesmente não receba nada (página em branco).

E qual o efeito disso para o administrador do servidor web? Ele vai começar a receber reclamações de problemas de acesso misteriosos. Primeiro, serão poucos (poucos usuários com IPv6 atrás de Proxy), então será considerado "algum problema na rede do usuário". Mas com o passar do tempo, o número de rede IPv6 atrás de Proxies irá crescer, e a quantidade de reclamações aumentar.

Se considerarmos que a maioria dos usuários nem vai saber que está usando IPv6, raramente alguém irá ligar uma coisa com a outra. Por outro lado, o servidor web não irá gerar nenhum aviso ao administrador do que está acontecendo. Serão dias e dias de caçada até que o administrador finalmente descubra o que está acontecendo.

Resumo

Existe várias aplicações que, em algum momento, podem transportar o IP original na sua camada de aplicação, para citar algumas: HTTP, FTP e SIP.

Qualquer desenvolvedor ou administrador de rede deve pensar com muito carinho quando for realizar alguma lógica de processamento baseado no IP de origem do usuário, principalmente se essa informação for retirada do payload de aplicação (das informações da aplicação) e não do cabeçalho TCP/IP.

Caso contrário, podem surgir no futuro breve problemas causados por esses falhas. E são problemas difíceis de depurar.

**  para ajudar o site a crescer clique nos anúncios do Google. 

O medo do IPv6


A falta de disponibilidade de endereços do IPv4 levou, entre outras coisas, a criação do NAT. Graças a ele o IPv4 ganhou uma sobrevida de aproximadamente 10 anos. No entanto o NAT, apesar de eficiente, não é mágico e o fim do IPv4 está próximo. Daí em diante, será apenas IPv6.

No entanto o NAT criou um efeito superprotetor: quem está atrás do NAT se sente seguro, inatingível, intocável pelos hackers na Internet. Ainda havia o risco dos vírus e worms baixados via e-mail e páginas web além do phising, mas não havia ataque direto às portas.

Isso fez com que os mecanismos de segurança dos computadores e servidores se concentrassem nos programas executados. Pouco se desenvolveu em tornar os sistemas operacionais seguros e menos ainda se desenvolveu para garantir a seguranças dos protocolos acima do IP.

Com o IPv6 surge o conceito de conectividade universal, aonde cada equipamento, computador, telefone celular ou outro equipamento conectado à Internet poderá ser acessado diretamente por qualquer outro. Isso está gerando uma sensação de pânico generalizado.

Na verdade, o conceito de conectividade direta não é uma invenção do IPv6. O próprio IP atual (IPv4) surgiu com o conceito de conectividade direta, aonde cada equipamento teria acesso direto a todas outras. No entanto com os problemas de disponibilidade do IPv4 e surgimento do NAT, e esse conceito foi esquecido.

Dessa forma foram criados vários mecanismos para resolver essa limitação de conectividade trazidas pelo NAT. O STUN para o SIP e os equipamentos intermediários do Skype são apenas alguns exemplos de alternativas.

No entanto a Internet não é para ser assim. A Internet não nasceu para ser limitada. A Internet nasceu de forma que todos se conectem com todos a qualquer momento. No entanto isso assusta muitos.

A conectividade ilimitada e universal vai permitir o surgimento de novas aplicações e facilitar o uso de outras (como VoIP e compartilhamento de arquivos P2P). Assim esse benefício do IPv6 deveria ser bem vindo.

No entanto, assim como uma criança superprotegida, que é impedida de sair de casa pelos país, tem medo de atravessar a rua quando cresce, os usuários de Internet também estão receosos de sair desse casulo de proteção que é o NAT.

Apesar de desnecessário, existem mecanismos de NAT IPv4 para IPv6, que a princípio permitiriam com que a rede interna continuasse IPv4 e saísse através de um roteador IPv6 fazendo NAT. Não vou entrar em detalhes aqui, mas esse mecanismo é tão complexo e tão suscetível a problemas, que eu creio será uma tragédia utiliza-lo.

Existe também a possibilidade de se fazer um NAT IPv6 para IPv6, inclusive foi lançado recentemente um draft para criação de uma RFC padronizando os mecanismos de NAT:
http://tools.ietf.org/html/draft-iab-ipv6-nat-01

Os autores desse texto (encabeçados por membros da Microsoft, UCLA e Juniper) admitem no texto que um NAT IPv6/IPv6 é tecnicamente desnecessário, mas que haverá um desejo para isso.

Eu realmente acredito nisso: que apesar de ser totalmente desnecessário e - inclusive - um fator de aumento de complexidade na rede, o NAT IPv6/IPv6 (ou IPv4/IPv6) será popular no inicio. No entanto, de acordo com que mais e mais equipamentos demonstrem que é possível sobreviver com IPv6 válidos e - principalmente - com o desenvolvimento de aplicações que dependam da conectividade universal, esse tipo de mecanismo deverá cair e desuso.


**  para ajudar o site a crescer clique nos anúncios do Google.

sexta-feira, 29 de outubro de 2010

China desenvolve o computador mais rápido do mundo

China desenvolve o computador mais rápido do mundo
Apresentado nesta quinta-feira (28) em Pequim, o Tianhe-1A tem um recorde de desempenho de 2.507 petaflops


Nesta quinta-feira (28), durante a reunião anual da National High Performance Computing, em Pequim, na China, foi apresentado o computador mais rápido do mundo: o Tianhe-1A.


O aparelho tem um recorde de desempenho de 2.507 petaflops (operações de ponto flutuante por segundo). A grosso modo, o petaflop indica a quantidade de cálculos que a máquina é capaz de realizar neste período de tempo. Logicamente, quanto maior este valor, mais rápido é o computador.


Para atingir o novo recorde de performance, o supercomputador usou 14.336 processadores Intel Xeon e custou US$ 88 milhões. Ele pesa 155 toneladas e todo o sistema consome 4.04 megawatts de eletricidade.


Para se ter uma ideia, o Tianhe-1A derrubou o recorde anterior do Cray XT5, que atualmente é usado pelo Centro Nacional dos Estados Unidos para Ciências da Computação no Estado de Tenneessee.


O Tianhe-1A foi concebido pela Universidade Nacional de Defesa de Tecnologia (NUDT) da China e já está em pleno funcionamento.

fonte: Olhar Digital

Crackers Exploram Vulnerabilidade no Firefox

Um ataque de trojan à visitantes do site do Prêmio Nobel da Paz na Noruega, foi informado nesta terça-feira, explorando uma vulnerabilidade desconhecida anteriormente no Firefox. Não há informações detalhadas se a vulnerabilidade em questão está disponível no momento, pois o acesso ao Bugzilla está restrito apenas aos desenvolvedores registrados.



É bastante raro os invasores conseguirem explorar vulnerabilidades desconhecidas no Firefox. Um zero day exploit para Firefox havia surgido em meados do ano passado, mas no momento ele não estava sendo ativamente explorado para ataques. A Fundação Mozilla confirmou a existência da vulnerabilidade nas versões 3.6 e 3.5 e classificado como crítico. A Mozilla está trabalhando em um patch, mas até isso ficar pronto há uma recomendação para que os usuários desativem o JavaScript ou utilizem o plug-in NoScript.

O site do Prêmio Nobel da Paz já foi desinfectado, mas a Fundação Mozilla acredita que haja outros sites por aí que estejam usando o exploit para distribuir malware. Não se sabe quantos usuários pode ter sido vítima do ataque. De acordo com a análise da Trend Micro, o exploit apenas tenta infectar as versões mais antigas do Windows usando o Firefox 3.6.x. O ataque permanece inativo quando confrontado com o Windows 7 e Windows Vista (que detecta através do cabeçalho do navegador) - provavelmente porque há muitos obstáculos relativos à segurança a serem superados com esses sistemas operacionais. O exploit instala um back door (BKDR_NINDYA.A.) que faz contato com um número de servidores.


Saiba Mais:

[1] Aftenposten.no: http://www.aftenposten.no/forbruker/...cle3874492.ece
[2] Nobel Peace Prize: http://nobelpeaceprize.org/

quarta-feira, 27 de outubro de 2010

Calculando a distância

Calculando a distância

O sinal transmitido pelo ponto de acesso é espalhado por uma grande área, de forma que apenas uma pequena quantidade da energia irradiada é efetivamente captada pela antena receptora. Vamos então a uma outra tabela, dessa vez com a perda teórica em um ambiente livre de obstáculos:

500 m -94.4 dB
1 km -100.4 dB
2 km -106.4 dB
4 km -112.4 dB

Como disse, estes números são puramente teóricos, a começar pelo fato de que não temos (pelo menos não dentro da atmosfera do nosso planeta) um ambiente completamente livre de obstáculos, já que a própria umidade do ar atenua o sinal em certa intensidade.

Em um ambiente real, você poderia calcular uma perda de 117 dB para uma distância de 2 km em campo aberto, com um acréscimo de 6 a 9 dB cada vez que a distância dobra.

A margem é necessária, pois em uma situação real você raramente consegue obter um alinhamento perfeito das antenas e fatores ambientais, como o vento e a chuva podem balançá-las (tirando-as da posição ideal). Além disso, variações da umidade afetam o sinal, de forma que o sinal é mais atenuado em dias chuvosos, o que é um dos grandes problemas dos provedores que oferecem acesso wireless. Sem uma boa margem de tolerância, sua rede poderá funcionar bem nos dias de tempo bom, mas ficar instável nos dias nublados ou durante as chuvas.

Subtraindo a perda da potência inicial do sinal, obtemos o valor que chega até o cliente. Se a potência inicial (incluindo o ganho da antena) é de 19 dBm e a perda causada pelo percurso (incluindo os obstáculos) é de 117 dB, por exemplo, significa que o cliente receberá um sinal de apenas -98 dBm. Se a potência de transmissão fosse aumentada para 26 dBm, ele receberia -91 dBm e assim por diante.

Veja que aqui estamos falando em valores negativos, que consistem em apenas uma pequena fração de milliwatt. Como vimos, um sinal de 1 milliwatt equivale a 0 dBm e precisamos dobrar a potência do sinal para cada 3 dBm adicionais. Da mesma forma, cada vez que dividimos a potência do sinal pela metade, subtraímos 3 dBm, de forma que -3 dBm equivalem a 0.5 milliwatt, -6 dBm correspondem a 0.25 e assim por diante. Se você fizer a conta, vai ver que -98 dBm corresponde a um valor realmente muito baixo.

Ao receber o sinal, o cliente precisa amplificá-lo, de forma que ele possa ser processado. Entra em cena então outra especificação importante, que é a sensibilidade de recepção (receive sensitivity), que corresponde ao nível mínimo de sinal que o cliente precisa para receber os dados, com um volume aceitável de erros de recepção.

Ao criar um link de longa distância, é importante usar pontos de acesso e placas com a maior sensibilidade possível. Tenha em mente que uma diferença de apenas 6 dB na recepção permite obter o dobro do alcance, utilizando as mesmas antenas. Este acaba sendo o principal diferencial entre placas de diferentes fabricantes, mesmo quando elas são baseadas no mesmo chipset.

Uma dica é que os pontos de acesso e placas 802.11g atuais oferecem em geral uma recepção melhor do que produtos antigos, baseados no padrão 802.11b (mesmo se utilizadas as mesmas antenas), devido a melhorias nos chipsets.

Os aparelhos baseados no 802.11n oferecem uma taxa de transferência muito maior a curtas distâncias, devido ao uso do MIMO, mas esta característica é praticamente inútil em links de longa distância, onde normalmente utilizamos uma única antena. O 802.11n oferece algumas melhorias adicionais no sistema de correção de erros e na transmissão do sinal, que reduzem o overhead da transmissão em relação ao 802.11g, resultando em um certo ganho na taxa de transmissão (mesmo com uma única antena), mas não espere muito. Note também que um grande número de pontos de acesso 802.11n utilizam antenas fixas, o que os tira da lista de opções.

Você encontra a relação entre o nível mínimo de sinal para cada taxa de transferência nas especificações da placa ou do ponto de acesso. A maioria dos dispositivos trabalha com um valor mínimo de -92 dBm e alguns chegam a -95 dBm (note que a sensibilidade de recepção não está necessariamente relacionada à potência de transmissão). Entretanto, esse valor corresponde à taxa de transmissão mínima, a 1 megabit. Para que a rede possa trabalhar a velocidades mais altas, é necessário um sinal mais forte. Aqui vai uma tabela de referência para que você possa ter uma idéia. Os valores podem variar em até 6 dBm, de acordo com a marca e o modelo da placa:

1 mbps -92 dBm
2 mbps -91 dBm
5.5 mbps -90 dBm
9 mbps -88 dBm
12 mbps -87 dBm
18 mbps -86 dBm
24 mbps -83 dBm
36 mbps -80 dBm
48 mbps -74 dBm
54 mbps -72 dBm



Pela tabela podemos ver que um sinal de -98 dBm é muito baixo, mesmo para criar um link de apenas 1 megabit. Para cada redução de 3 dB no sinal, temos uma redução de 50% na potência, de forma que -98 dBi corresponde a apenas um quarto de -92 dBi, que seria o mínimo para estabelecer a conexão, dentro das especificações da tabela.

Como citei anteriormente, o ganho da antena afeta também a habilidade de recepção do cliente, de forma que seria possível estabelecer a conexão com sucesso usando uma antena de maior ganho no cliente, que permitisse elevar o sinal de -98 dBm até o nível mínimo necessário.

Uma simples antena setorial ou yagi com 8 dBi de ganho, devidamente apontada para a antena do ponto de acesso remoto, seria suficiente para elevar o sinal ao nível mínimo (a 1 megabit), mas seria necessário usar uma antena com pelo menos 26 dBi para ter uma chance de efetuar a conexão na velocidade máxima, a 54 megabits.

Uma antena de 26 dBi de ganho seria muito cara e volumosa, e a instalação seria difícil, já que tanto ganho resulta em um sinal muito focalizado. Nesse caso, seria muito mais simples usar uma antena de maior ganho no ponto de acesso, mantendo o cliente com uma antena de 8 ou 12 dBi.

No exemplo, estamos emitindo um sinal de 19 dBi, o que corresponde à potência inicial do ponto de acesso, usando a antena padrão, de 2 dBi. Se a substituíssemos por uma antena de 16 dBi a potência do sinal já subiria de 19 (17+2) para 33 dBi (17+16). Descontada a atenuação, o cliente recebia (em teoria) um sinal de -84 dBi, o que reduziria e muito o ganho necessário para chegar nos -72 dBi necessários para efetuar a conexão a 54 megabits.

A fórmula para calcular o sinal que chega efetivamente ao receptor é:
Potência de transmissão + ganho da antena - perda de sinal + ganho da antena receptora

Calculando a potência de transmissão e recepção

Calculando a potência

A potência total de saída é obtida convertendo a potência do transmissor, de milliwatts para dBm e, em seguida, somando o ganho da antena (em dBi). Duas calculadoras que oferecem a opção são:

Como comentei, a maioria dos modelos domésticos de pontos de acesso trabalham com 17.5 dBm (56 milliwatts) ou 18 dBm (63 milliwatts) de potência, mas existem modelos com apenas 15 dBm (31.6 milliwatts) e, no outro extremo, alguns modelos com até 400 milliwatts (26 dBm), como o Senao ECB-3220 e o OVISLINK WL-5460:


m740eb1e4 m66b1dc45

É importante notar que, em muito casos, a potência anunciada pelo fabricante inclui o ganho da antena, de forma que um ponto de acesso com sinal de 20 dBm pode ser, na verdade, um ponto de acesso com transmissor de 18 dBm e uma antena de 2 dBi. Nesse caso, você obteria 24 dBm ao substituir a antena padrão por uma antena de 6 dBi e não 26 dBm (20+6) como poderia pensar à primeira vista. Uma diferença de 2 dBm pode parecer pequena, mas na verdade equivale a um aumento de 66% na potência do sinal, daí a importância de checar as especificações com atenção.

A lógica é simples. Nenhuma antena irradia o sinal igualmente em todas as direções. Mesmo as antenas ominidirecionais irradiam mais sinal na horizontal que na vertical. Isso significa que o sinal é concentrado dentro da área de transmissão da antena, tornando-se mais forte. Como vimos, quanto maior o ganho da antena, mais concentrado e forte é o sinal, fazendo com que ele seja capaz de percorrer distâncias maiores e superar mais obstáculos. Se a potência de transmissão nominal é de 400 mW, o uso de uma antena de 2.2 dBi faria com que, na prática, tivéssemos uma potência de transmissão de 880 mW (29.4 dBm).
Se a antena padrão fosse substituída por uma antena yagi com ganho de 18 dBi, a potência de transmissão subiria para 44 dBm e, se a antena tivesse 24 dBi, subiria para impressionantes 50 dBm. Na prática, os valores seriam um pouco mais baixos, devido à perda introduzida pelo cabo e pelos conectores, mas ainda assim os números seriam impressionantes.

Mesmo um ponto de acesso mais simples, com um transmissor de 56 milliwatts (17.5 dBm), pode atingir uma boa potência de transmissão se combinado com uma antena de bom ganho. Mesmo usando uma antena setorial de 12 dBi, a potência total de transmissão já seria de 29.5 dBm, o que equivale a 891 milliwatts. A principal diferença é que nesse caso o sinal seria concentrado em uma área muito menor, tornando-o utilizável para um link de longa distância, mas não para uma rede doméstica, onde o sinal precisa ficar disponível em todo o ambiente.

Em se tratando de links de longa distância, é preciso ter em mente que a potência de transmissão do ponto de acesso não está necessariamente relacionada à sua sensibilidade de recepção, e a falha em captar o sinal do cliente também leva à perda da conexão. Ou seja, para obter um ganho tangível, é necessário usar produtos com uma maior potência de transmissão dos dois lados do link.

Uma antena de alto ganho (corretamente focalizada), por outro lado, aumenta tanto a potência de transmissão quanto a sensibilidade de recepção, já que é capaz de concentrar o sinal em ambas as direções. 

É por isso que instalar uma antena yagi na placa do seu notebook permite que ele consiga se conectar a redes tão distantes, mesmo sem modificações nos respectivos pontos de acesso.

Redes wireless, parte 4: Antenas e conectores

Antenas direcionais

Em seguida temos as antenas direcionais, que além de concentrarem o sinal na vertical, concentram-no também na horizontal, fazendo com que, em vez de um ângulo de 360 graus, o sinal seja concentrado em um ângulo de 90 graus ou menos.

As primeiras em ordem hierárquica são as antenas setoriais, que concentram o sinal em um ângulo de aproximadamente 90 graus, ou seja, um quarto de um círculo completo. Se instaladas no canto de um galpão ou cômodo, elas distribuem o sinal em todo o ambiente, deixando pouco sinal vazar no outro sentido. A maioria das antenas setoriais trabalham com ganho de 12 a 17 dBi. Embora no papel a diferença possa parecer pequena, uma antena de 17 dBi trabalha com uma potência de transmissão pouco mais de 3 vezes maior que uma de 12 dBi.

m66b78d49

Duas variações das antenas setoriais são as patch antennas (antenas de painel) e as round patch antennas (antenas circulares).

As patch antennas são antenas quadradas, que contêm internamente uma folha de metal. Elas trabalham com um ângulo de cobertura mais aberto do que as antenas setoriais, mas em compensação oferecem menos ganho, servindo como uma espécie de meio-termo entre elas e as antenas ominidirecionais:

53c321b2

As antenas round patch seguem o mesmo princípio, mas são redondas. Devido a isso, elas são muitas vezes instadas no teto (como se fosse um soquete de lâmpada) de forma a irradiar o sinal igualmente por todo o cômodo.

Em seguida temos as antenas yagi, que oferecem um ganho ainda maior, mas em compensação são capazes de cobrir apenas uma pequena área, para a qual são diretamente apontadas (normalmente em um raio de 24 x 30 graus, ou mais estreito). Você pode imaginar que uma antena yagi emite o sinal em um ângulo similar ao de um cone, resultando em um padrão de transmissão similar ao do diagrama abaixo:

m365bbd5e

O foco concentrado resulta em um ganho muito maior do que o das antenas setoriais. A maior parte das antenas yagi à venda oferecem ganho de 14 a 19 dBi, mas não é incomum ver antenas com até 24 dBi.

Estas antenas são úteis para cobrir alguma área específica, longe do ponto de acesso, ou interligar duas redes distantes. Usando duas antenas yagi de alto ganho é possível criar links de até 25 km, o que é mais de 150 vezes o alcance inicial.

Para melhores resultados, uma antena deve ficar apontada exatamente para a outra, cada uma no topo de um prédio ou morro, de forma que não exista nenhum obstáculo entre as duas. Em instalações profissionais é usado um laser para fazer um ajuste fino no final da instalação, "mirando" as duas antenas:

365bede8

As yagi são também o melhor tipo de antena a usar quando é preciso concentrar o sinal para "furar" um obstáculo entre as duas redes, como, por exemplo, um prédio bem no meio do caminho. Nestes casos a distância atingida será sempre mais curta, naturalmente.

Uma solução muito adotada nestes casos é usar um repetidor instalado em um ponto intermediário, permitindo que o sinal desvie do obstáculo. Existem até mesmo pontos de acesso extremamente robustos, desenvolvidos para uso industrial, que além de um gabinete reforçado utilizam placas solares e baterias, que permitem a eles funcionar de forma inteiramente autônoma:

m6bdb867c

A maioria das antenas yagi é coberta por um "tubo", que protege a antena das intempéries e melhora o aspecto visual, mas a antena propriamente dita tem um formato de espinha de peixe. É justamente este formato que permite que o sinal seja tão concentrado:

m5d44ab4c

As antenas feitas com tubos de batatas Pringles seguem o conceito de funil defletor e se comportam justamente como um tipo de antena yagi de baixo ganho.

Outra dica é que, no caso dos pontos de acesso 801.11b/g com duas antenas, você pode usar uma antena convencional em uma das saídas (para manter o sinal em um raio circular, atendendo aos micros próximos) e usar uma antena yagi na outra, de forma a melhorar a cobertura em algum ponto cego, ou para atender um cliente distante do ponto de acesso. Na verdade, o ponto de acesso transmite o mesmo sinal usando ambas as antenas, simplesmente selecionando a que oferece um sinal de melhor qualidade com relação a cada cliente.

Esta técnica é chamada de "antenna diversity" (variação de antenas) e melhora a qualidade da recepção, prevenindo o aparecimento de pontos cegos. Entretanto, como a segunda antena não é obrigatória, cada vez mais fabricantes optam por produzir pontos de acesso com uma única antena, de forma a cortar custos.

Os pontos de acesso 802.11n, por sua vez, utilizam o MIMO, um sistema mais sofisticado, onde cada uma das antenas transmite um sinal independente e o ponto de acesso se encarrega de remontar o sinal original combinando os sinais, além de levar em conta fatores como a reflexão do sinal por paredes e outros objetos. O uso do MIMO é um dos principais fatores que permite que os produtos 802.11n ofereçam uma taxa de transmissão e alcance maiores que os 802.11g.

Embora (no 802.11n) todas as antenas sejam usadas simultaneamente, o ponto de acesso é capaz de operar com apenas duas ou mesmo com uma única antena, mas nesse caso a velocidade de transmissão é reduzida, de forma que a idéia de substituir uma das antenas por uma antena direcional não funciona tão bem em redes 802.11n.

Continuando, temos as antenas parabólicas, que também captam o sinal em apenas uma direção, de forma ainda mais concentrada que as yagi, permitindo que sejam atingidas distâncias ainda maiores. A maioria das antenas parabólicas destinadas a redes WI-FI utilizam uma grelha metálica no lugar de um disco sólido, o que reduz o custo e evita que a antena seja balançada pelo vento, saindo de sua posição ideal. Por causa disso, elas são também chamadas de antenas de grelha, ou grid antennas, em inglês.

7b4662a6

A maioria das miniparabólicas disponíveis no mercado oferecem ganhos de 22 a 24 dBi, mas pesquisando é possível encontrar antenas com ganhos ainda maiores. Para uso profissional, existe também a opção de usar antenas parabólicas com refletor sólido, que oferecem ganhos de até 32 dBi. Entretanto, devido ao alto ganho, é muito difícil usar uma (legalmente) sem obter a licença apropriada junto à Anatel (veja mais detalhes sobre essa questão da legislação a seguir).

Usar uma antena de maior ganho aumenta tanto a capacidade de transmissão quanto de recepção do ponto de acesso, permitindo tanto que o sinal transmitido se propague por uma distância maior quanto que ele seja capaz de captar o sinal fraco de clientes distantes, desde que eles sejam instalados dentro do foco da antena (que se torna cada vez mais estreito conforme aumenta o ganho).

Ao criar links de longa distância, é necessário usar antenas de alto ganho tanto no ponto de acesso quanto no cliente, o que soma o ganho das duas antenas, aumentando exponencialmente o alcance. Em situações ideais, é possível criar links com 25 ou até mesmo 30 km, combinando duas antenas de alto ganho, perfeitamente alinhadas.

Uma curiosidade é que alguns fabricantes estão passando também a incorporar placas wireless USB às antenas, de forma a torná-las mais atrativas, permitindo que você instale a placa com a antena diretamente em uma porta USB disponível, sem precisar se preocupar com pigtails e conectores. Como os adaptadores wireless USB estão cada vez mais baratos, isso tende a se tornar mais comum.

Redes wireless, parte 4: Antenas e conectores

Antenas omnidirecionais

As antenas usadas por padrão nos pontos de acesso são chamadas de dipole ou omnidirecionais, pois irradiam o sinal em todas as direções, permitindo que você se conecte à rede a partir de qualquer ponto na área em torno do ponto de acesso. Na verdade, o "em todas as direções" é uma figura de linguagem, pois as antenas concentram o sinal na horizontal, em um raio de 360 graus, irradiando, em compensação, pouco sinal na vertical.

Você pode imaginar que, ao utilizar uma antena ominidirecional, o sinal emitido pelo ponto de acesso tem formato de um donut, como você pode ver neste gráfico:


63182afd

É por isso que as antenas do ponto de acesso devem ficar sempre na posição vertical, a menos é claro que você queira que o sinal seja irradiado na vertical, de forma a conseguir se conectar à rede quando estiver no andar de cima, por exemplo. Ao instalar o ponto de acesso, o ideal é que ele fique em uma posição central e um pouco mais alto que os móveis e demais obstáculos, de forma que o sinal possa trafegar até os clientes sem muitos desvios. Se instalar o ponto de acesso em uma posição central não for possível, considere usar uma antena setorial ou um defletor caseiro (veja a seguir), de forma a direcionar o sinal para a área desejada.

Continuando, sempre que possível, as antenas nos clientes devem sempre estar alinhadas (também de pé) em relação à antena do ponto de acesso, para uma melhor recepção. Caso o cliente use algum tipo de antena mini-yagi, então a antena deve ficar apontada para o ponto de acesso.

Por não irradiar muito sinal na vertical, concentrando-o na horizontal, uma antena ominidirecional típica oferece um ganho de 2.2 dBi, o que equivale a um aumento de 65% na potência de transmissão (e também na qualidade da recepção) em relação a uma antena (teórica) que irradiasse o sinal igualmente em todas as direções.

A partir daí, é possível aumentar a potência de transmissão do ponto de acesso de duas maneiras:

A) Usando um amplificador de sinal, de forma a aumentar a potência de transmissão do ponto de acesso.

B) Substituindo a antena padrão por uma antena de maior ganho, ou seja, por uma antena que concentre o sinal, permitindo que ele atinja distâncias maiores.

A opção A (usar um amplificador) é uma forma de resolver o problema na base da força bruta. Usando um amplificador, é possível aumentar a potência de transmissão do ponto de acesso (ou da placa wireless) para até 1 watt, que é o máximo permitido pela legislação.

A grande maioria dos pontos de acesso trabalha com menos de 100 milliwatts de potência de transmissão, de forma que 1 watt significa um ganho considerável. Ao usar um amplificador, é importante escolher um amplificador bidirecional (que amplifica nas duas direções, atuando também sobre sinal recebido dos clientes), caso contrário o alcance prático da rede ficará limitado pela potência de transmissão dos clientes (afinal, se o ponto de acesso não recebe o sinal do cliente, não é possível abrir o canal de comunicação).

m4c44ca1d

Muitos pontos de acesso permitem ajustar a potência de transmissão, mas normalmente o ajuste é liberado apenas para baixo. Ou seja, você pode reduzir a potência de transmissão, de forma a intencionalmente reduzir a área de cobertura da rede (o que ajuda na questão da segurança), mas não aumentar:

m5379dce4

Grande parte dos pontos de acesso utilizam transmissores com uma potência maior, mas ela é limitada via firmware, de forma a atender as normas das agências reguladoras de diversos países. Em muitos casos, é possível "destravar" o ponto de acesso, permitindo usar toda a potência disponível através de firmware alternativo.

Dois exemplos são o OpenWRT (http://openwrt.org/) e o DD-WRT (http://www.dd-wrt.com) que oferecem suporte a um grande número de pontos de acesso. Note que regravar o firmware pode inutilizar o ponto de acesso caso ele não seja suportado, ou caso algo dê errado durante o processo, por isso não deixe de checar as listas de compatibilidade e as instruções de instalação.

Diferentemente de um amplificador bidirecional, que irá amplificar tanto a transmissão, quanto a recepção do sinal dos clientes, amplificar o sinal do ponto de acesso melhora apenas a transmissão no sentido ponto de acesso > cliente, sem fazer nada para melhorar a recepção das transmissões dos clientes. Devido a isso, o alcance da rede continuará basicamente o mesmo, mas teremos ganhos com relação à recepção dos clientes, permitindo que eles obtenham um sinal mais estável e taxas de download mais altas quando dentro da área de cobertura. Em outras palavras, você obtém parte dos benefícios de usar um amplificador sem precisar colocar a mão no bolso.

Em seguida temos a opção B, que consiste em utilizar uma antena de maior ganho, que concentra o sinal em uma única direção, aumentando, assim, a potência efetiva de transmissão. Quando mais estreito o foco da antena, mais concentrado é o sinal.

O ganho da antena é medido em dBi, sendo que um ganho de 3 dBi equivale ao dobro da potência de transmissão e um ganho de 10 dBi equivale a um aumento de 10 vezes. Usar antenas de alto ganho tanto no ponto de acesso quanto no cliente permite criar links wireless de longa distância, indo muito além dos 150 metros nominais.

Existem no mercado antenas omnidirecionais com maior ganho, que podem substituir diretamente as antenas do ponto de acesso. Temos aqui uma antena de 5 dBi ao lado de uma antena padrão de 2.2 dBi:
75108097
Antenas omnidirecionais maiores, de uso externo, podem oferecer ganhos de 10 ou até mesmo 15 dBi. O sinal continua sendo transmitido em todas as direções na horizontal, mas o ângulo vertical se torna muito mais estreito em relação ao oferecido pelas antenas padrão, ou seja, o maior ganho da antena não faz com que ela transmita mais sinal, mas apenas com que concentre a transmissão em uma faixa mais estreita:
mb8220

Redes wireless, parte 4: Antenas e conectores

Redes wireless, parte 4: Antenas e conectores



 
Assim como em outras tecnologias de transmissão via rádio, a distância que o sinal é capaz de percorrer depende também da qualidade e do tipo da antena usada. As antenas dipole utilizadas por padrão nos pontos de acesso são pequenas, práticas e baratas, mas existe a opção de utilizar antenas mais sofisticadas para aumentar o alcance da rede.

O alcance típico de uma rede 802.11g é de 30 metros em espaços fechados (como uma casa ou um prédio, onde existem paredes e outros obstáculos) e 150 metros em campo aberto, sem obstáculos. Entretanto, como vimos anteriormente, a distância máxima e a qualidade do sinal (e, conseqüentemente, a velocidade de transmissão) podem variar bastante de um modelo de ponto de acesso para outro, de acordo com a qualidade e potência do transmissor e do ganho da antena usada pelo fabricante, sem contar os obstáculos presentes entre o ponto de acesso e o cliente. Vamos então a dicas de como aumentar o alcance da sua rede e criar links de longa distância.

Redes wireless, parte 2: Padrões

802.11g

Em seguida temos o 802.11g que, apesar do crescimento do 802.11n, ainda é utilizado na maioria das instalações. Ele utiliza a mesma faixa de freqüência do 802.11b: 2.4 GHz. Isso permite que os dois padrões sejam intercompatíveis. A idéia é que você possa adicionar placas e pontos de acesso 802.11g a uma rede 802.11b já existente, mantendo os componentes antigos, do mesmo modo como hoje em dia temos liberdade para adicionar placas e switches Gigabit Ethernet a uma rede já existente de 100 megabits.

Apesar disso, a velocidade de transmissão no 802.11g é de 54 megabits, como nas redes 802.11a. Isso foi possível porque o padrão 802.11g é mais recente e por isso incorpora novas tecnologias de modulação de sinal. Uma analogia poderia ser feita com relação às placas de rede Gigabit Ethernet, que são capazes de trabalhar utilizando os mesmos cabos cat 5e utilizados pelas placas de 100 megabits.

Na prática, é possível atingir taxas de transmissão reais em torno de 3.4 MB/s, tanto nas redes 802.11g quanto nas 802.11a, ao contrário do que os 54 megabits teóricos sugerem. Isso acontece porque as redes wireless utilizam o ar como meio de transmissão, o que as torna muito mais propensas a problemas e interferência do que as redes cabeadas, que utilizam cabos de cobre ou de fibra óptica. Para que os dados sejam transmitidos de forma confiável, é necessário incluir um pesado protocolo de transmissão e correção de erros, o que faz com que a percentagem de bits "úteis" transmitidos seja relativamente baixa.

Além da perda causada pelo protocolo de controle (que se enquadra na camada 2 do modelo OSI), temos mais uma pequena perda causada pelo protocolo TCP/IP (camadas 3 e 4), sem falar do overhead introduzido pelos aplicativos (camada 7). Juntando tudo isso, a velocidade real da rede wireless acaba sendo quase metade da taxa teórica, ou seja, para cada byte de dados úteis, a placa acaba precisando transmitir dois. Nas redes cabeadas também existe overhead, mas ele é proporcionalmente muito menor.

Conforme aumenta a distância, as placas lançam mão de outro artifício para manter a estabilidade do sinal: reduzem a taxa de transmissão, como alguém que passa a falar mais devagar quando a ligação telefônica está ruim. No caso das redes 802.11g, a taxa cai, sucessivamente, de 54 megabits para 48, 36, 24, 18, 12, 11, 9, 6, 5.5, 2 ou 1 megabit, até que o sinal finalmente se perde completamente. Com a rede operando a 11 megabits (a mesma taxa de transmissão das redes 802.11b), por exemplo, a taxa de transferência real fica abaixo dos 750 KB/s.

Na maioria dos pontos de acesso, é possível definir uma taxa fixa de transmissão (no lugar do valor "Auto", que é o default), o que permite que a taxa seja ajustada conforme necessário. Com isso, você pode forçar a rede a operar sempre a 54 megabits, por exemplo, sem permitir que os clientes chaveiem para as taxas mais lentas. Entretanto, fazendo isso você vai perceber que o alcance da rede será drasticamente reduzido.

No outro extremo, em situações onde o sinal é ruim devido à distância ou a fontes diversas de interferência, reduzir voluntariamente a taxa de transmissão pode tornar a rede mais estável, evitando que os clientes percam tempo tentando chavear para os modos mais rápidos.

45419a67
Configuração da taxa de transmissão na configuração do ponto de acesso

Outro problema é que, como citei anteriormente, a taxa de transmissão é compartilhada entre todos os micros, diferente de uma rede cabeada baseada em um switch, onde várias transmissões podem ocorrer simultaneamente, cada uma na velocidade máxima permitida pela rede. Isso ocorre devido ao compartilhamento da mídia de transmissão (o ar), que é compartilhado por todas as estações, similar ao que temos em uma rede 10BASE-2 antiga, com cabos coaxiais.

Nas redes 802.11b e 802.11g estão disponíveis 11 canais de transmissão (originalmente são 14, mas três deles não podem ser usados devido à questão da legislação), que englobam as freqüências de 2.412 GHz (canal 1) a 2.462 GHz (canal 11), com intervalos de apenas 5 MHz entre eles.

Como os canais utilizam uma banda total de 22 MHz (em muitas citações, o valor é arredondado para 20 MHz), as freqüências acabam sendo compartilhadas, fazendo com que redes operando em canais próximos interfiram entre si. O canal 6, cuja freqüência nominal é 2.437 GHz, opera na verdade entre 2.426 e 2.448 GHz, invadindo as freqüências dos canais 2 até o 10. Veja só:

Canal
Freqüência nominal
Freqüência prática
1
2.412 GHz
2.401 a 2.423 GHz
2
2.417 GHz
2.405 a 2.428 GHz
3
2.422 GHz
2.411 a 2.433 GHz
4
2.427 GHz
2.416 a 2.438 GHz
5
2.432 GHz
2.421 a 2.443 GHz
6
2.437 GHz
2.426 a 2.448 GHz
7
2.442 GHz
2.431 a 2.453 GHz
8
2.447 GHz
2.436 a 2.458 GHz
9
2.452 GHz
2.441 a 2.463 GHz
10
2.457 GHz
2.446 a 2.468 GHz
11
2.462 GHz
2.451 a 2.473 GHz

Como pode ver na tabela, os canais 1, 6 e 11 são os únicos que podem ser utilizados simultaneamente sem que exista nenhuma interferência considerável entre as redes (em inglês, os três são chamados de "non-overlapping channels" ou seja, canais que não se sobrepõem). Ao configurar uma rede com três pontos de acesso, você obteria (presumindo que não existissem outras redes próximas) um melhor desempenho configurando cada um deles para usar um dos três canais, em vez de usar canais próximos, como 3, 5 e 7, por exemplo.

Em situações onde é necessário usar 4 canais simultaneamente, a melhor opção é usar os canais 1, 4, 8 e 11. Neste caso você se sujeita a uma certa dose de interferência, mas ela é muito menor do que ao escolher canais mais próximos.

Como você deve ter imaginado quando disse "nenhuma interferência considerável" a dois parágrafos atrás, existe sim uma certa interferência entre os canais, mesmo ao utilizar os canais 1, 6 e 11. Como você pode ver no gráfico abaixo (gerado através de analisador de espectro), fornecido pela Atheros, a potência do sinal cai rapidamente ao sair da faixa de 22 MHz usada, mas não desaparece completamente, invadindo a faixa dos demais canais. O gráfico mostra placas com chipsets da Broadcom (a idéia do gráfico da Atheros parece ser justamente atacar a concorrente), mas teríamos gráficos muito similares usando placas de outros fabricantes:

7e58cc80
Gráfico que mostra o "vazamento" do sinal wireless, que invade os outros canais do espectro, gerando interferência

Apesar disso, a interferência não é considerável, pois existe uma diferença de cerca de 30 dB entre a potência do sinal dentro da faixa de freqüência e a parcela que vaza para as freqüências próximas. Se fosse uma percentagem, "30" seria uma diferença relativamente pequena, mas como estamos falando em decibéis, temos na verdade uma proporção de 1 para 1000.

Note que quando falo em "interferir", não significa que as redes param de funcionar, mas sim que a taxa de transmissão é reduzida. Se temos duas redes próximas, operando no mesmo canal, ambas com clientes transmitindo simultaneamente teremos, na melhor das hipóteses, a taxa de transmissão dividida pela metade (1.7 MB/s ou menos para cada rede), sem contar os pacotes corrompidos ou perdidos, que precisam ser retransmitidos. Devido a isso a taxa efetiva de transferência acaba sendo dividida não apenas entre os clientes da sua própria rede, mas também de redes próximas, o que acaba se tornando um problema em áreas densamente povoadas.

No Brasil é permitido também o uso dos canais 12 (2.467 GHz) e 13 (2.472 GHz), assim como na maior parte dos países da Europa. Entretanto, a maioria dos equipamentos que chegam ao nosso mercado operam dentro dos 11 canais permitidos nos EUA, que é, afinal o principal mercado consumidor. Em alguns casos é possível "destravar" o uso dos canais adicionais através de uma opção na configuração, ou através de um upgrade de firmware, mas nem sempre, de forma que acaba sendo mais fácil se conformar em utilizar um dos 11 canais do que ter que se preocupar em usar apenas equipamentos que permitam o uso dos canais adicionais.
Devido à questão do compartilhamento da banda e da interferência, as redes wireless acabam sendo mais adequadas para compartilhar a conexão com a web e outros recursos que envolvam baixo de uso de banda. Não seria a melhor opção para um grande escritório onde os usuários precisam transferir grandes quantidades de arquivos, por exemplo. Nesse caso, uma rede mista, onde a maioria dos clientes utilizam a rede cabeada e apenas quem precisa de mobilidade utiliza a rede wireless, seria uma melhor opção.

Continuando, a grande maioria das placas wireless 802.11g são também compatíveis com o padrão 802.11b, o que mantém a compatibilidade com pontos de acesso do padrão anterior. Apesar de estar caindo em desuso, o 802.11b ainda é usado em muitas instalações, sobretudo em redes para acesso público.

Muitas placas são compatíveis também com o 802.11a, o que fecha a compatibilidade com os três padrões. Em alguns casos, os padrões suportados são indicados de forma bem óbvia, como no caso das placas "Intel PRO/Wireless 2200BG", que suportam os padrões B e G, mas na maioria dos casos você precisa recorrer às especificações da placa. As placas que suportam mais de um padrão são chamadas de placas multimodo.