A tecnologia, atualmente, é uma ferramenta fundamental de apoio aos negócios. As empresas usam os computadores e a Internet para relacionar-se com seus clientes e fornecedores, como parte de seus processos de criação e produção. Além disso, é importante lembrar que as redes de dados corporativas usam a mesma tecnologia básica da Internet: o protocolo TCP/IP.
Então: a resposta é sim. Se sua empresa não fica em um castelo completamente isolado em alguma ilha por aí, você pode ter certeza que, em alguma medida, a mudança na Internet afeta sua área de TI. Se vocês não estão ainda tratando essa questão, deveriam.
Alguns especialistas chegam a comparar a situação ao Bug do Milênio. Não tenho certeza se é uma comparação justa ou apropriada. Mas no mínimo serve para dar uma ideia da dimensão da questão.
Quais são os riscos para sua empresa, se vocês não fizerem nada?
Entenda que a Internet está migrando para o IPv6. Essa migração por enquanto está lenta, é verdade. Não há, entretanto, outro caminho no médio e longo prazo. Se sua empresa não acompanhar o movimento, ficará paulatinamente isolada. Da mesma forma que diferentes tecnologias de redes, como IPX/SPX, NetBIOS, NetBEUI, AppleTalk, etc, caíram em desuso e tudo convergiu para o IP, no passado, assim também o IPv4 cairá em desuso e tudo convergirá para o IPv6, dado o devido tempo.
Os provedores, no curto prazo, compartilharão endereços IP (versão 4) entre diversos usuários, para uso simultâneo, usando uma espécie de NAT. Farão isso ao mesmo tempo em que oferecerão também uma conexão nativa IPv6 para o mesmo usuário. Você pode estar confortável com o uso do NAT em sua rede corporativa, mas usá-lo nos provedores é algo diferente. Quebra princípios básicos da Internet. Pode gerar problemas para os usuários. Se sua estrutura for legada, só usar IPv4, os usuários vão depender dos IPs compartilhados para acessar seu site. Eles podem percebê-lo como mais lento que os demais, ou nem conseguir acessá-lo, numa situação limite.
Parte dos equipamentos que você usa em sua rede já suportam IPv6, incluindo computadores com Windows, Linux ou OS X, tablets, telefones móveis, roteadores e diversos outros. Isso, por si só, seria ótimo se você já estivesse implantando o protocolo. Mas se não está, saiba que muitos desses equipamentos vêm com IPv6 habilitado por padrão. Ou seja, pode haver pacotes IPv6 em sua rede já hoje, sem você saber. Isso tem implicações na segurança de sua infraestrutura. Por exemplo, computadores Windows fazem túneis automáticos, sem qualquer intervenção do usuário ou administrador de sistemas, para obter conectividade IPv6, em algumas situações. Esses túneis podem contornar as políticas de segurança implantadas no firewall corporativo.
Você não precisa sair correndo, trocando equipamentos e softwares pra colocar o IPv6 pra funcionar em cada canto de sua rede ainda hoje. Mas você também não pode simplesmente ignorar a questão. Há providências que deveriam ser tomadas imediatamente, e outras que podem esperar. Em meu próximo artigo, vou dar sugestões sobre como endereçar a transição para o IPv6 em uma empresa que é usuária de tecnologia, minimizando os riscos e gastando o mínimo possível.
Solicitações debloqueios de IPs, nomes de domínio e URLsfeitaspara os provedores de acesso, estão se tornando cada vez mais comuns no Brasil. A justificativa principal écombater a pirataria, especialmente a pirataria de conteúdo audiovisual via IPTV ilegal, mas há outras razões, como evitar a venda de produtos sem homologação, ou mesmo o combate à desinformação. As intenções são legítimas e, à primeira vista, as ações podem parecer necessárias. Mas, quando olhamos mais de perto, encontramos uma realidade preocupante:solicitações com pouco embasamento técnico, executadas de forma apressada, sem transparência, e que podem comprometer, quebrar, a própria infraestrutura da Internet.
Pouco se tem debatido sobre osimpactos técnicos desses bloqueios. Os provedores de Internet, pressionados por ordens judiciais ou administrativas, algumas vezes imprecisas ou mesmo inexequíveis, ficam na ponta de um processo mal construído,arcando com os custos operacionais e de reputação. Enquanto isso, a própria estrutura distribuída, resiliente e eficiente da redevai sendo corroídapor práticas que, ao invés de atingir seus alvos, criamdanos colaterais graves.
No IX Fórum Fortaleza 2025, tive o privilégio de moderar um painel fundamental sobre o tema, comThiago Ayub(Sage Networks) eFernando Frediani(Brasil Peering Forum). Foi um debate esclarecedor, técnico e contundente, que você pode e deveassistir no canal do NIC.br no YouTube. Você encontrará também o vídeo ao final deste artigo.
Aqui, quero sistematizar e comentar os riscostécnicosque esse modelo de bloqueio tem trazido para ainfraestrutura da Internet brasileira. E quero também mostrar que não estamos sozinhos: países como Itália e Espanha já adotaram modelos semelhantes e os resultados não são animadores.
Este texto não é de forma alguma contra o combate à pirataria.Nem é contra os bloqueios.É a favor de um debate tecnicamente embasado, transparente e responsável sobre as ferramentas que estamos usando para esse combate. Porque a Internet não pode ser conduzida com base em soluções improvisadas, que colocam em risco o seu funcionamento.
Como o bloqueio tem sido feito na prática
Na ponta da rede,os provedores de Internet, especialmente os que atuam com o Serviço de Comunicação Multimídia (SCM), têm recebido solicitações de bloqueio de IPs, nomes de domínio (FQDN – Fully Qualified Domain Names) e, em alguns casos, até de URLs específicas.Esses pedidos chegam de diversas formas:decisões judiciais, esolicitações administrativas, com destaque para a atuação da Anatel. A agência tem exercido um papel duplo, tanto como retransmissora de ordens judiciais quanto comoagente ativo na formulação e difusão das listas de bloqueio.
Essas listas geralmente são compostas por IPs e domínios.Algumas vezes não trazem informação técnica clara, como o exato escopo do que se tem intenção de bloquear, nem trazem evidências da ilicitude dos recursos afetados. Como regra geral, não trazemprazos de expiração, o que significa que o recurso pode permanecer bloqueado indefinidamente. Muitos desses documentos incluem ainda cláusulas desigilo, que muitos provedores interpretam como uma proibição de informarem seus usuários sobre por que um recurso não está funcionando. Osprazos para cumprimento da solicitação de bloqueio geralmente são curtose as listas são apresentadas emdocumentos PDF, organizados para a leitura feita por seres humanos, não sistemas computacionais, o que dificulta a operacionalização. Para completar o cenário há iniciativas privadas e por parte da Anatel paraautomatizar e centralizar o processo, com graves riscos associados.
Esse cenário coloca os ISPs em uma situação crítica deinsegurança jurídica. Ao receberem uma ordem administrativa ou uma recomendação com aparência de obrigatoriedade, os provedores se veem em um dilema:cumprir sem a certeza de que a ordem é legítima, correndo o risco de violar direitos ou normas superiores, ourecusar e enfrentar possíveis sanções ou litígios, caso a solicitação fosse realmente válida. Muitas vezes, por precaução, acabamcumprindo sem questionar, mesmo quando não há certeza sobre as consequências adversas ou sobre a legitimidade da solicitação.
O que temos, portanto, é um ambiente em que:
oscritérios técnicos são opacos;
osfundamentos legais variam e nem sempre são sólidos;
hápressão crescente por automação e volume;
e os impactosà infraestrutura da Internet estão sendo negligenciados.
Nos próximos tópicos, vamos analisar com mais profundidade os riscos técnicos concretos que esse modelo já vem impondo e que ainda podem se agravar.
Bloqueios tecnicamente inexequíveis
Um dos primeiros e mais evidentes problemas de algumas das solicitações de bloqueio é a suainviabilidade técnica. Muitos pedidos simplesmentenão fazem sentido dentro da lógica de funcionamento da Internet. São tentativas de aplicar regras típicas da camada de aplicação (HTTP, HTTPS, etc.) utilizando instrumentos próprios da camada de rede (IP) ou de transporte (DNS, TCP). Ou seja, ordem direcionada aos provedores de acesso ou trânsito IP, para bloquearem recursos sobre os quais eles não têm controle.
Exemplo clássico:bloqueio de uma URL específica, como:http://exemplo.com/filmex. Vários provedores já receberam solicitações paraimpedir acesso a URLs com caminho completo, algo impossível de filtrar no roteamento IP, ou no servidor DNS recursivo e cache, que é o que os provedores operam. Esse servidor só resolve nomes de domínio. O roteamento IP sequer tem visibilidade da aplicação. Ou seja: o pedido é feito de formaequivocadae o provedor se vê em umdilema operacional e jurídico.
Se o provedor tiver clareza técnica, sabe que o bloqueio da URL exatanão é possívelcom os recursos que tem e que qualquer tentativa de executá-lo como está pode resultar em falhas técnicas ou impacto colateral grave. Mas, ao mesmo tempo, oreceio de penalidades legaisou de sanções administrativas faz com que muitos optem porexecutar o bloqueio da única forma viável com os meios disponíveis: filtrandoo nome de domínio como um todo, ou aindao endereço IP compartilhado, mesmo que isso potencialmente afete centenas ou milhares de outros conteúdos legítimos.
O resultado sãobloqueios excessivamente amplos, que prejudicam usuários, criadores de conteúdo, empresas, aplicações críticas, tudo por conta de um alvo específico. E, muitas vezes, esse impactonão é mensurado nem sequer percebido por quem emitiu a ordem. A responsabilidade técnicaacaba mal alocada, recaindo sobre quemnão tem os meios adequados para resolver o problema de forma cirúrgica.
O procedimento tecnicamente correto para esse tipo de ação seria solicitar o bloqueio para oprovedor de hospedagem do conteúdo infrator. É lá que se poderia aplicar um bloqueiopreciso, específico, com base no caminho, protocolo ou recurso. Esse provedor possui visibilidade e controle sobre o que está sendo servido e poderia, inclusive,remover diretamente o conteúdo. No entanto, o que se tem visto são ordens genéricas e mal especificadas sendoenviadas para os provedores de acesso e trânsito, que nada têm a ver com o conteúdo hospedado.
Provavelmente isso se dá porque a maioria dessas hospedagens ocorre no exterior. Mas há meios de contato para notificar os responsáveis por esses serviços. Pode-se recorrer, por exemplo, aos contatos deabusedo Sistema Autônomo responsável, ou ainda à colaboração de autoridades estrangeiras. É um caminho mais trabalhoso, mas ele é também mais preciso e efetivo, certamente com menos efeitos colaterais.
A desconexão entre o local do problema e o ponto de aplicação do bloqueioé fonte de ineficiência, insegurança jurídica e dano à Internet.
Bloqueios amplos e genéricos
O tópico anterior apresentou a situação onde ordens tecnicamente inexequíveis chegam aos provedores de acesso ou trânsito e esses provedores optam por executá-las da forma que conseguem. O caminho mais comum e perigoso é obloqueio genérico: ou se bloqueiatodo o domínio, outodo o endereço IP.
Uma situação similar, igualmente grave, é quando a própria ordem solicita obloqueio genérico, ou seja,todo o domínio, outodo o endereço IP. Na prática, isso significa quemilhares de serviços e aplicações legítimospodem ser afetados por causa de uma única página ou conteúdo alvo. Isso ocorre porque muitos sites e sistemas na Internetcompartilham o mesmo endereço IPou o mesmo domínio base. Plataformas como Cloudflare, Google Cloud, AWS, Netlify, Vercel e centenas de outras ofereceminfraestruturas multi-inquilino, onde diferentes serviços e clientes compartilham recursos para otimização de custo, desempenho e resiliência.
Ao bloquear, por exemplo, um IP da Cloudflare ou um domínio genérico de hospedagem, o provedor pode estar, sem perceber,derrubando dezenas de sites corporativos, lojas online, serviços governamentais, aplicações de autenticação, ou conteúdo jornalístico ou de caráter pessoal. Em vez de atingir apenas o conteúdo ilícito, o bloqueiorompe a confiabilidade e integridade da Internet como um todo, afetando a entrega de informação, a liberdade de expressão e até serviços essenciais.
Esse tipo deoverblockingjá aconteceu na prática:
NaEspanha, decisões judiciais que visavam a pirataria de jogos da LaLiga resultaram no bloqueio deIPs inteiros da Cloudflare, afetando clientes da Vercel e Netlify sem qualquer relação com o conteúdo ilegal.
NaItália, o sistema Piracy Shield já causou indisponibilidades para serviços de streaming legítimos e plataformas educacionais, por incluir IPs de uso múltiplo sem checagem prévia.
NoBrasil, há relatos de interrupções em caches de CDNs, afetando tráfego de vídeos, atualizações de software e até servidores DNS, tudo porque o IP bloqueado eracompartilhado.
O bloqueio genérico também mina a confiança no provedor. O usuário final não sabe por que perdeu acesso a determinado site ou serviço. O provedor, obrigado a manter sigilo, não pode esclarecer. E o impacto reputacional recai sobre ele.
Mais grave ainda:essas falhas não costumam gerar aprendizado. Como os pedidos são sigilosos, os erros não são auditados publicamente, os provedores não falam entre si, e os afetados sequer sabem por que foram impactados. A repetição do erro é inevitável.
Esse tipo de bloqueio amplificado, que “atira para todos os lados”,fere a arquitetura distribuída da Internet,penaliza quem nada tem a ver com o problema, edesorganiza os esforços legítimos de segurança, compliance e estabilidade de rede.
Bloqueios de DNS e assimetria
Mesmo quando o pedido de bloqueio se refere a um domínio específico e, portanto, em tese, poderia ser atendido via DNS, essa abordagem traz implicações negativas para a operação da rede e para a Internet como um todo.
O primeiro problema é quenem todos os provedores de acesso operam sua própria infraestrutura de DNS recursivo. Embora manter servidores locais seja uma boa prática, com ganhos de performance e autonomia, parte dos ISPs opta por redirecionar seus usuários para serviços externos, como o 8.8.8.8 do Google ou o 1.1.1.1 da Cloudflare. Esses são apenas exemplos, há diversos outros operadores. Nessas situações, o provedor de acessonão tem controle sobre o que será resolvidoe, portanto,não tem como aplicar os bloqueios solicitados, mesmo que recebendo uma ordem judicial.
Segundo,há uma assimetria no recebimento das ordens. Muitas vezes, os pedidos são enviados apenas a operadores com SCM (Serviço de Comunicação Multimídia), por meio de cadastros mantidos pela Anatel. No entanto,diversos provedores de DNS recursivo abertos, incluindo grandes plataformas globais, não têm SCM ou sequer operam no Brasil, o que significa quenunca são notificados. Portanto, não efetuam os bloqueios.
Essa assimetria tem gerado distorções práticas. Provedores que cumprem as ordens de bloqueio, muitas vezes à custa de desgaste com seus próprios usuários, percebem queseus competidores que usam DNS externo não enfrentam as mesmas dificuldades. O resultado, em vários casos, é um movimento de migração:ISPs deixam de operar DNS recursivo local e passam a redirecionar os usuários para resolvers externos, como forma de escapar da pressão operacional e reputacional associada aos bloqueios.
Essa prática é ruim sob vários aspectos. Elaaumenta a latência,reduz a autonomia da rede brasileira,concentra informações sensíveis em poucos operadores globaisecria pontos únicos de falhapara frações inteiras da Internet. Trata-se de um efeito colateral indesejado, queenfraquece a resiliência da infraestruturaem nome de uma tentativa ineficiente de controle de conteúdo.
O mais adequado, do ponto de vista técnico e institucional, seria que os bloqueios de domínios fossem tratadosjunto aos serviços responsáveis por eles, como provedores de hospedagem ou registradores de nomes, e nãoimpostos de forma desigual e ineficaz aos provedores de acesso.
Bloqueios sem prazo de expiração
Outro aspecto preocupante dos bloqueios de IPs e domínios no Brasil é aausência quase total de prazos de expiraçãonas ordens emitidas. A maioria dos pedidos simplesmente não define por quanto tempo o bloqueio deve durar. Na prática, isso significa querecursos permanecem bloqueados indefinidamente, mesmo quando já não representam qualquer risco ou violação.
Esse acúmulo de bloqueios permanentes gera uma espécie de“lixo regulatório” na camada de rede: listas crescem, roteadores e firewalls acumulam regras, e recursos legítimos acabam marcados como proibidos por tempo indeterminado. O impacto disso não é apenas administrativo: é técnico, direto e mensurável:
IPs públicos válidos tornam-se inutilizáveis, inacessíveis a partir do provedor que realizou o bloqueio, mesmo após serem designados pelo provedor de hospedagem para outro cliente ou conteúdo.
CDNs e serviços de cloudpassam a enfrentar inconsistências de entrega.
DNSs e cachessofrem degradação de desempenho por causa de filtragens antigas e desnecessárias.
ISPs pequenospassam a ter dificuldade para gerenciar suas próprias políticas de rede, dada a carga crescente de exceções e filtros manuais.
O problema é agravado quando falamos deIPs compartilhados, ou seja, um mesmo IP sendo usado por diversos domínios ou serviços. Com a escassez de IPv4, é comum que operadoras, plataformas de hospedagem e provedores utilizem NATs, proxies reversos e infraestrutura compartilhada para entregar conteúdo a múltiplos clientes. Umúnico bloqueio eternonesses contextos significa penalizar dezenas ou centenas de usuários, recursos ou serviços inocentes.
Na maior parte dos casos, os próprios responsáveis pela origem do conteúdo ilegal jámigraram para outros domínios ou IPse o bloqueio original já não serve para absolutamente nada. Esses bloqueios são rapidamente percebidos e tratados pelos infratores, de forma que em poucos minutos estão com o conteúdo ilegal disponível em outro lugar No entanto, sem prazos pré definidos e sem mecanismos formais de reavaliação, os filtros permanecem,consumindo recursos operacionais, processando tráfego desnecessário e gerando atritos invisíveis para o usuário final.
O mais adequado seria quetodo bloqueio viesse com prazo definido e revisável, mesmo em casos de ordem judicial. Também seria essencial que houvesserotinas de expiração, revisão técnica e auditoria dos bloqueios existentes. Hoje, nada disso está formalizado. Não há base de dados pública, nem protocolo de revalidação periódica.
Na prática, estamos criandozonas de exclusão digital permanente, onde recursos são abandonados ou marcados como “tóxicos” sem motivo técnico, apenas pela inércia institucional. E isso é uma ameaça silenciosa à eficiência, estabilidade e escalabilidade da Internet.
Falta de transparência e sigilo nos bloqueios
Grande parte dos pedidos de bloqueio recebidos por provedores de Internet no Brasilvem acompanhada de cláusulas de sigilo. No entendimento de muitos provedores, isso os impede de informar seus usuários sobre os motivos do não funcionamento de um site ou recurso de rede.
Essa prática rompe com os princípios básicos da governança da Internet, que sempre valorizaram a transparência, a responsabilidade e a abertura para revisão. Ao impor sigilo, o sistema cria um ambiente onde:
os usuários não sabem por que determinado site, serviço ou aplicação está inacessível;
os provedores não conseguem buscar ajuda externa para avaliar a legalidade ou a viabilidade técnica do pedido;
não há espaço para aprendizado coletivo ou padronização de boas práticas;
nenhum órgão público ou sociedade civil pode auditar o processo.
O resultado é um modelo de bloqueios opacos, ondeerros se acumulam silenciosamente, sem chance de correção. E mais: os bloqueios mal realizadosnão geram consequências para quem os ordena, já que não há exposição pública, contestação ou mesmo registro histórico acessível.
A ausência de transparência também tem outro efeito nocivo:elimina o contraditório. Nenhum outro ator: sociedade civil, academia, imprensa, entidades técnicas, etc; consegue intervir, discutir ou propor alternativas. Quando muito, os debates ocorrem entre quatro paredes, com assimetrias técnicas e jurídicas enormes entre os envolvidos.
Do lado do usuário final, o impacto é ainda mais perverso. Um site deixa de funcionar, e ele não sabe se o problema é na rede, no navegador, no roteador… Ou se está sendo vítima de filtragem. Sem saber, ele apenas muda de provedor, ou usa uma VPN, solução que desorganiza ainda mais o tráfego e ignora o problema de fundo.
Por fim, o sigiloimpede a construção de indicadores públicos. Não sabemos quantos bloqueios foram solicitados, quantos estão ativos, com que base legal, em que contexto, e com quais impactos. Essa ausência de dados alimenta aideia possivelmente falsa de eficáciados bloqueios, já que não há métricas para comprovar benefícios.
A Internet é um espaço essencialmenteinterconectado, colaborativo e transparente. Levar adiante uma política de filtragem massiva sob o véu do sigilocoloca em xeque esses valorese abre as portas para abusos silenciosos.
Os perigos da automação e da centralização nos bloqueios
Duas iniciativas de automação no processo de bloqueio de conteúdo passaram a ganhar visibilidade no Brasil: uma denatureza privada, baseada em um serviço comercial de software desenvolvido por consultores independentes com conhecimento técnico no setor;e outra, pública, proposta pela própria Anatelsob o nome de “lacre virtual”. Embora diferentes na origem, ambas compartilham o mesmo fundamento: automatizar e centralizar os bloqueios, diretamente nos provedores de acersso que prestam serviço à população.
Amotivação mais clara da iniciativa privada é econômica: os pequenos e médios provedores, diante de ordens crescentes e operacionais complexas, com listas longas e em formatos ineficientes (como PDFs com milhares de linhas), muitas vezes não têm recursos técnicos e humanos para fazer frente à tarefa de forma adequada.Automatizar esse trabalho, seja com scripts internos ou por meio de uma solução externa, pode, à primeira vista, parecer uma resposta pragmática ao problema. Contudo, essa solução comercial apresenta graves limitações. O principal deles é que, como as ordens são sigilosas,não há garantias de que as listas de bloqueio repassadas a diferentes redes sejam idênticas, embora na prática pareçam ser. Com isso, uma ferramenta compartilhada, por mais bem-intencionada que seja, introduz riscos de inconsistência e ampliação de escopo dos bloqueios, mesmo sem intenção deliberada.
Já o“lacre virtual”da Anatel é ainda mais sensível.A ideia é dar à agência acesso remoto, ainda que “limitado”, a roteadores core de provedores voluntários, permitindo a execução automática e direta dos bloqueios de IPs considerados ilícitos. A iniciativa está em fase de testes, mas claramente avança sobre uma infraestrutura crítica da Internet com potencial de impacto amplo e profundo. Há também a intenção de seautomatizar a geração das ordens e a varredura de IPs suspeitos.
Ambas as iniciativas, apesar de bem-intencionadas, subestimam os riscos que introduzem à estabilidade, à segurança e à arquitetura distribuída da Internet.Os principais perigos são:
Erro técnico em escala:um único falso positivo ou entrada incorreta pode derrubar serviços essenciais, como já ocorreu com bloqueios indevidos de CDN, IPs da Google e até do GitHub;
Ponto único de falha e controle:ao centralizar o processo em uma ferramenta ou entidade única, abre-se a porta para disfunções operacionais ou manipulações maliciosas, seja por falhas internas ou por agentes externos com acesso indevido, hackers, por exemplo;
Superficialidade jurídica:ao facilitar demais a execução de ordens, dilui-se a reflexão necessária sobre a legalidade, proporcionalidade e viabilidade técnica dos pedidos, principalmente os que envolvem URLs ou IPs compartilhados;
Falsa sensação de eficácia:ao criar sistemas automatizados, existe o risco de as autoridades julgarem que a pirataria está sendo efetivamente combatida, mesmo sem evidências concretas (KPIs, auditorias, relatórios independentes) de resultados reais;
Instrumentalização futura como mecanismo de censura:a mesma infraestrutura que hoje bloqueia caixas piratas pode ser usada, amanhã, para silenciar dissidentes, bloquear plataformas inteiras ou aplicar censura.
Automação, se houver, deve sempre estar contida dentro da própria rede operada pelo provedor, sob sua total responsabilidade, com logs auditáveis, clara delimitação jurídica e independência operacional. Qualquer tentativa de centralizar o poder de execução de bloqueios, seja numa ferramenta privada ou no core da rede por uma agência pública, fere não apenas o modelo técnico descentralizado da Internet, mas também os princípios democráticos de transparência, proporcionalidade e controle social.
Ausência de fundamento legal e insegurança jurídica
Além dos riscos técnicos, operacionais e institucionais já discutidos, há um problema central que permeia o sistema atual de bloqueios: a fragilidade de sua base legal. Em muitos casos, as ordens recebidas pelos provedores de Internet não estão claramente respaldadas pelo ordenamento jurídico vigente, ou extrapolam os limites definidos por ele. Ainda assim, os ISPs acabam obrigados a decidir, sozinhos, entre cumprir ou não cumprir, sem segurança jurídica sobre as consequências de cada caminho.
Não sou advogado ou jurista, de forma que este tópico em especial deve ser lido com uma pitada de ceticismo e as informações devem ser verificadas e validadas com operadores do direito qualificados. Contudo, as leis e regulamentos parecem ser muito claros e os textos não dão muita margem à interpretação.De qualquer forma, o problema principal tratado neste artigo não é a legalidade ou não das solicitações, discutida neste tópico, mas suas deficiências técnicas e riscos para a infraestrutura da Internet.
OMarco Civil da Internet (Lei nº 12.965/2014)estabelece, em seuart. 9º, que o tráfego de dados deve ser tratado de forma isonômica, sem distinção por conteúdo, origem, destino ou serviço. A lei só admite exceções em dois casos:
Requisitos técnicos indispensáveis à prestação adequada dos serviços e aplicações, e
Prioritização de serviços de emergência.
Vejam que aqui tratamos doart. 9º, que assegura o princípio da neutralidade da rede, e não do art. 19º,visto que estamos falando de bloqueios efetivados no provimento de conexão e não sobre a responsabilidade dos provedores de aplicações. Fora das hipóteses citadas, qualquer forma de bloqueio, filtragem ou degradação de tráfego só pode ser aplicada medianteordem judicial específica, que respeite o devido processo legal.
ODecreto nº 8.771/2016, que regulamenta esse dispositivo, reforça que a discriminação ou degradação de tráfego sãomedidas excepcionais, e só podem decorrer das exceções mencionadas, com base emrequisitos técnicos indispensáveis, como situações de risco à segurança da rede (ex: ataques DDoS) ou decongestionamento emergencialda infraestrutura (art. 4º e 5º).
O decreto exige também que:
essas práticas estejamalinhadas aos padrões técnicos internacionaisreconhecidos (art. 6º);
sejamtransparentes para os usuários, com descrição clara dos efeitos, motivações e impacto na qualidade do serviço (art. 7º);
não resultem deacordos comerciaisque comprometam a neutralidade ou favoreçam aplicações específicas (art. 9º);
respeitem a integridade, estabilidade e segurança da rede.
Já asDiretrizes do CGI.br, baseadas nesse marco normativo, reafirmam que qualquer bloqueio de tráfego só pode ser justificado quando vinculado à mitigação de incidentes de segurança (como ataques DoS) e, mesmo assim, com escopo e duração limitados, documentação clara e justificativa técnica auditável.
Em suma,bloqueios amplos, permanentes, sem documentação técnica transparente, baseados em listas genéricas e automatizadas, ou realizados sem ordem judicial específica,não estão em conformidade com o Marco Civil, seu decreto regulamentador e as diretrizes técnicas reconhecidas pelo próprio CGI.br.
A recente Lei nº 14.815/2024 atribui à Ancine a competência para determinar a suspensão e cessação do uso não autorizado de obras audiovisuais protegidas e pode-se argumentar que ela seria a base legal para os bloqueios administrativos.
No entanto,o texto legal não especifica os mecanismos para tal execução, tampouco revoga ou altera o Marco Civil da Internet ou seu decreto regulamentador.A ausência de previsão expressa sobre o procedimento aplicável, sobre a necessidade de ordem judicial ou sobre os limites técnicos e jurídicos dessas determinações, faz com que a interpretação mais prudente seja a de que essas suspensões, se implicarem em filtragem ou bloqueio de tráfego de dados, continuam subordinadas às normas já vigentes sobre neutralidade de rede. Ou seja,mesmo com essa nova lei, os bloqueios de IPs, domínios ou URLs só podem ser implementados conforme as condições estabelecidas no Marco Civil da Internet: com respaldo judicial específico, respeito ao devido processo legal e observância das diretrizes técnicas aplicáveis.
Aqui está o dilema central dos ISPs:cumprir uma ordem possivelmente ilegal pode acarretar responsabilização civil ou até penalpor violação de direitos dos usuários. Por outro lado,deixar de cumprir pode significar desobediência, multas ou outro tipo de penalização institucional. É uma situação de insegurança jurídica estrutural, que obriga operadores técnicos a assumir responsabilidades jurídicas desproporcionais.
Essa situação parece ainda mais grave para os pequenos e médios provedores, que frequentemente não contam com assessoria jurídica especializada, departamentos de compliance ou suporte técnico avançado. Muitos executam os bloqueiospor medo, não por convicção jurídica ou segurança operacional.
Ineficácia prática dos bloqueios e falta de indicadores
Mesmo com todo o esforço para aplicar bloqueios de conteúdos, principalmente de IPTV pirata, aindanão há dados públicos que mostrem se essas medidas realmente funcionam. Não há metas, relatórios, nem indicadores divulgados que permitam saber se a pirataria diminuiu por causa dos bloqueios.
Sem esses dados,fica difícil avaliar se o esforço, os custos e os riscos envolvidos estão valendo a pena. É como dirigir no escuro: os provedores seguem cumprindo ordens e investindo recursos técnicos, mas ninguém tem clareza sobre o impacto real das ações sobre a pirataria.Os bloqueios são facilmente burlados por quem distribui conteúdo ilegalmente. Basta uma troca de domínio, IP, ou o uso de VPN e DNS alternativo para que o acesso seja restabelecido. Isso mostra que os bloqueios por si sónão resolvem o problema. Podem atrapalhar momentaneamente, masnão desarticulam a estrutura da pirataria.
Enquanto isso, os efeitos colaterais são bem concretos: redes sobrecarregadas com exigências técnicas difíceis de atender, risco de afetar serviços legítimos e usuários prejudicados por enganos ou bloqueios mais amplos do que o necessário.
Não se trata de dizer que bloquear é sempre errado, mas de reconhecer quebloquear sem o cuidado devido, sem medir os resultados e sem discutir alternativas mais eficazesé prejudicial à Internet. É preciso pensar em soluções mais completas para o problema, envolvendo possivelmente os meios de pagamento, a publicidade, os serviços de hospedagem e a cooperação internacional.
Sem indicadores claros e públicos,não dá para afirmar que os bloqueios estão funcionando e muito menos justificar os riscos que eles trazem para a Internet.
Lições da Espanha e da Itália
O debate sobre bloqueios de conteúdos na Internet não é exclusivo do Brasil. Outros países também vêm enfrentando desafios parecidos e suas experiências recentes ajudam a mostraros riscos reais que o excesso de centralização e a falta de precisão técnica podem causar.
Na Espanha, ordens judiciais relacionadas ao combate à pirataria foram responsáveis porbloqueios de IPs inteiros da Cloudflare, afetando diversos sites legítimos, sem relação com atividades ilícitas. Plataformas como Vercel, Netlify e até pequenos sites europeus relataram perda de acessibilidade por parte de usuários espanhóis. Em alguns casos,o IP bloqueado era compartilhado por milhares de domínios, um reflexo direto da tentativa de aplicar soluções simples a um problema complexo.
A La Liga, responsável por parte das ações, reconheceu os bloqueios, alegando que os endereços estavam sendo usados para atividades ilegais, masnão apresentou medidas para mitigar o impacto sobre serviços legítimos. Usuários e desenvolvedores afetados reclamaram da falta de aviso prévio, da ausência de transparência e da dificuldade para reverter os bloqueios.
Esse episódio mostra comoo uso de IPs compartilhados por múltiplos serviços é comum na Internet modernae como bloqueá-los sem critério técnico afeta indiscriminadamente sites e usuários inocentes.
Na Itália, o governo implementou em 2023 o sistemaPiracy Shield, uma plataforma centralizada e automatizada para bloquear transmissões ilegais de esportes. O sistema é gerenciado pela agência reguladora AGCOM e funciona a partir de listas de bloqueios atualizadas dinamicamente, aplicadas por ISPs em tempo real.
Rapidamente surgiram problemas como obloqueio de sites legítimospor engano, inclusive um fórum europeu sobre aviação.Não há transparência sobre os critérios de inclusão nas listas, nem canal adequado de contestação. A decisão de aplicar os bloqueios écentralizada, sem participação técnica mais ampla ou auditoria externa. A comunidade técnica tem criticado amplamente o sistema.
Esses dois exemplos mostram quebloqueios técnicos mal planejados e mal executados geram efeitos colaterais gravese não necessariamente alcançam os objetivos pretendidos. Centralizar decisões, automatizar processos e aplicar filtros amplos pode parecer eficiente à primeira vista, mas frequentemente resulta emdanos maiores que os benefícios, além de criar tensões com os princípios de neutralidade, proporcionalidade e devido processo.
O Brasil ainda pode evitar esse caminho. Ao analisar essas experiências com cuidado, é possível fortalecer o debate local, exigir mais clareza técnica e jurídica nas ações de bloqueio e buscar alternativas mais eficientes e seguras para lidar com conteúdos ilegais sem comprometer o funcionamento e a confiança na Internet.
Convite ao debate e ao engajamento da sociedade técnica e civil
Diante de todos os riscos apontados: técnicos, jurídicos, operacionais e institucionais, é urgente que a comunidade técnica, as associações de provedores e as entidades do terceiro setorolhem com mais atenção para o tema dos bloqueios de conteúdo na Internet brasileira.
Estamos falando de medidas que afetam diretamente:
a estabilidade e o desempenho da rede,
os direitos dos usuários,
e a responsabilidade dos operadores técnicos, especialmente os pequenos e médios ISPs.
O problema é complexo e envolve diversos atores: Judiciário, Anatel, Ancine, grandes detentores de conteúdo, operadoras, órgãos de defesa do consumidor, comunidade técnica e sociedade civil. Mas o que se vê hoje é uma assimetria preocupante:as decisões estão sendo tomadas em espaços pouco transparentes, com baixa participação dos que mais entendem da rede e mais são afetados por ela.
Não se trata de ser contra medidas de combate à pirataria, mas sim de garantir queessas medidas sejam bem planejadas, proporcionais, auditáveis e tecnicamente viáveis. E, principalmente, quepreservem os princípios que sustentam a Internet livre, segura e aberta.
Foi uma conversa direta, aberta e técnica — como este assunto merece ser tratado.
Preservar a Internet é responsabilidade de todos
O debate sobre bloqueios de conteúdos na Internet brasileira não pode ser restrito a gabinetes, convênios e iniciativas pontuais. O que está em jogo é o equilíbrio delicado entre combater ilegalidades e preservar uma rede que é, por natureza, aberta, resiliente e descentralizada.
Bloquear conteúdos pode parecer uma solução rápida, mas os riscos, como vimos ao longo deste artigo, são profundos, como a degradação gradual da própria infraestrutura da Internet, o prejuízo à reputação dos provedores, mal funcionamento de serviços na Internet que nada tem a ver com o problema, falta de base legal clara para algumas ações, criação de uma infraestrutura centralizada para bloqueios que pode causar sérios problemas por erros operacionais, abuso por terceiros, como hackers, ou mesmo uso para censura.
A experiência internacional mostra que o caminho da centralização e da automatização excessivaleva a falhas, abusos e danos à infraestrutura. O Brasil ainda tem tempo de fazer diferente. Para isso, é necessário mais debate, mais dados, mais transparência e mais participação.
Este artigo foi um esforço para reunir argumentos sobre a questão, mas está longe de encerrar a conversa. Pelo contrário:espera-se que ele ajude a iniciá-la nos espaços certos: entre provedores, técnicos, advogados, reguladores, acadêmicos e usuários.
A Internet é um bem coletivo. Cuidar dela exige escuta, responsabilidade e coragem para fazer as perguntas difíceis. Este é o momento.
Antonio M. Moreiras.
Disclaimer:
Este artigo tem caráter exclusivamente informativo e opinativo. As análises aqui apresentadas refletem a visão pessoal do autor com base em sua experiência profissional e em fontes públicas. Não substituem a consulta a especialistas e não representam a posição oficial de nenhuma instituição à qual o autor esteja vinculado.
Em 31 de maio de 2025 o Comitê Gestor da Internet no Brasil (CGI.br) completa três décadas de existência.Uma história marcada pela inovação, pela construção de um modelo único de governança e pelo compromisso com uma Internet aberta, livre e inclusiva.
A trajetória do CGI.br se mistura com a história de pessoas visionárias. Uma dessas figuras éIvan de Moura Campos:professor, cientista, gestor e, sobretudo, um dos grandes responsáveis por transformar a Internet em um instrumento acessível a cada um de nós, brasileiros.Sua liderança foi fundamental para consolidar o nosso modelo multissetorial de governança, que hoje é referência mundial.
Ivan foi o entrevistado em uma edição especial do Podcast Camada 8, lançada em maio de 2025, durante o FIB15 (Fórum da Internet no Brasil). O episódio completo está disponível emhttps://nic.br/podcasts/camada8/episodio-64. Foi realmente um prazer e um privilégio entrevistá-lo, aprendi muito eé principalmente com base nessa entrevista, ou ao menos inspirado por ela, que escrevo este artigo.
Aqui,celebro os 30 anos do CGI.br, trago um pouco de história, os desafios do presente e convido à reflexão sobre o futuro da Internet no Brasil.
De engenheiro a Pioneiro da Internet
A trajetória deIvan de Moura Camposé, além de brilhante, repleta de episódios interessantes e curiosos, que ilustram como algumas sincronicidades – ou o acaso, se o leitor preferir – bastante curiosidade e paixão pela solução de problemas, podem mudar o rumo de uma vida, e de um país.
Ivan começou sua formação naEngenharia Mecânicana Universidade Federal de Minas Gerais (UFMG). No entanto, foi um desafio aparentemente simples que o levou amigrar para o universo da computação. Um de seus professores na engenharia possuía um carro francês Cinca Chambord, famoso na época por seu motor fraco e pouco confiável. O professor, em busca de mais potência, decidiu realizar uma façanha ousada: instalar um motor V8 de uma caminhonete Ford F100 no pequeno Cinca.
Esse motor, no entanto, apresentava um problema comum a motores V8: o desbalanceamento natural, que gera vibrações mecânicas significativas. Para fazer a adaptação corretamente, era necessário calcular o peso exato de contrapesos que simulassem os pistões e bielas. O desafio? O cálculo manual era extremamente complexo e demorado.
Coincidentemente, a Escola de Engenharia da UFMG havia acabado de adquirir seu primeiro computador. Ivan estava entre os poucos alunos que foram chamados para desembalar e começar a operar a máquina. Ele, então, programou um modelo matemático para calcular os contrapesos necessários. O experimento funcionou: o motor foi instalado no Cinca e, segundo Ivan, “o carro virou um escândalo: andava muito, mas não parava, não fazia curva, e a suspensão ficou completamente arriada”. Apesar de ser um fracasso mecânico, foi um sucesso computacional.O episódio acendeu em Ivan uma paixão pela computação que o faria mudar completamente de área.
Após essa experiência, Ivan nunca mais voltou à engenharia mecânica. Fez mestrado em Informática na PUC-RJ e, em seguida, doutorado em Ciência da Computação na Universidade da Califórnia, em Los Angeles (UCLA), na década de 1970, um dos berços do desenvolvimento da própria Internet.
De volta ao Brasil, tornou-seprofessor titular da UFMG, onde ajudou a estruturar os cursos de Ciência da Computação, e teve papel central na formação de uma geração de profissionais da tecnologia.
Paralelamente à vida acadêmica, Ivan também atuou emcargos públicos de grande relevância, como Diretor de Programas Especiais do CNPq e, mais tarde, Secretário de Política de Informática do Ministério da Ciência e Tecnologia (MCT), onde sua atuação foi decisiva na formulação das políticas que possibilitaram a chegada da Internet ao Brasil e na criação do CGI.br.
Mas Ivan não parou por aí. No início dos anos 2000, embarcou na sua quarta “encarnação profissional”, como ele mesmo descreve no episódio especial do podcast: a deempreendedor no setor de tecnologia.
Ele fundou, juntamente com outros sócios, aAKwan, uma empresa focada em tecnologias de busca na Internet. Na época, oTodoBR, um buscador brasileiro criado pela AKwan, foi uma das principais tentativas nacionais de competir no mercado de motores de busca, dominado por gigantes internacionais. A AKwan foi muito além de um simples buscador. Desenvolveu soluções sofisticadas de indexação, recuperação de informação e algoritmos de busca, tudo com tecnologia 100% brasileira. O sucesso técnico da empresa chamou a atenção de grandes players globais.Em 2005, o Google comprou a AKwan, e a partir dessa aquisição, estabeleceu seu centro de engenharia na América Latina em Belo Horizonte.Esse centro é, até hoje, um dos polos de desenvolvimento tecnológico do Google no mundo e emprega centenas de engenheiros brasileiros que trabalham em projetos globais.
A trajetória de Ivan demonstra uma combinação rara de qualidades:excelência acadêmica, visão de futuro, espírito empreendedor e comprometimento com políticas públicas.Sua influência se estende da formação de gerações de cientistas da computação no Brasil, passando pela estruturação da governança da Internet brasileira, até a integração do país ao ecossistema global de tecnologia por meio da inovação empresarial.
Além de tudo isso,Ivan também foi diretor da ICANN, eleito com votação massiva da comunidade latino-americana, superando inclusive os candidatos da América do Norte na época, um reconhecimento global à sua atuação na governança da Internet.
Os primórdios da Internet no Brasil e o ambiente pré CGI.br
A trajetória da Internet no Brasil começou muito antes da popularização da rede comercial. Nos anos 1980 e início dos anos 1990, a Internet brasileira era essencialmente acadêmica e experimental. Diversas redes operavam isoladamente, como a BITNET, a HEPnet, além das conexões de universidades e centros de pesquisa, coordenadas principalmente pela RNP (Rede Nacional de Ensino e Pesquisa).
A infraestrutura detelecomunicaçõesno Brasil estava, naquele momento, sobmonopólio estatalda Telebrás. Todo o modelo de telecomunicações era baseado emconcessões públicas, tarifação rígida, licenciamento e regulação pesada. Aplicar esse mesmo modelo à Internet parecia, na visão de muitos, natural, uma vez que se tratava de “comunicação de dados”. No entanto, isso significaria limitar profundamente o desenvolvimento da rede, transformando-a em um serviço altamente controlado, caro e acessível a poucos.
Foi nesse contexto que um movimento começou a se formar, tanto no governo quanto na comunidade acadêmica e no terceiro setor, compreendendo e defendendo que a Internet não era uma mera extensão das telecomunicações, mas sim uma infraestrutura lógica, descentralizada, baseada em software e em padrões abertos. Portanto, deveria ser tratada como algo distinto.
Um marco simbólico desse período foi a Conferência das Nações Unidas sobre Meio Ambiente e Desenvolvimento, aEco-92, no Rio de Janeiro. Para garantir a comunicação global dos participantes, foimontada uma infraestrutura de rede robusta, conectando jornalistas, ONGs, governos e empresas.A operação foi um sucesso e demonstrou, na prática, o potencial da Internet como ferramenta de comunicação, colaboração e desenvolvimento social.
Essa experiência acentuou uma percepção: o Brasil precisava decidir rapidamente como estruturaria sua Internet. Dois modelos estavam em disputa:
Modelo Telecom:A Internet seria gerenciada como se fosse um mero serviço de telecom, sujeita às mesmas regulações, licenciamento, tarifas e controle estatal.
Modelo Aberto:A Internet seria gerenciada como um serviço de valor adicionado, do ponto de vista das telecomunicações. Ou seja, livre, sem regulação similar a de telecomunicações, e com governança compartilhada entre governo, sociedade civil, academia e setor privado.
Ivan de Moura Campos, à época no Ministério da Ciência e Tecnologia, foi um dos principais articuladores dessa segunda visão, alinhando-se a uma compreensão que já ganhava força internacional: a de que a Internet deveria ser aberta, distribuída, descentralizada e, sobretudo, não submetida às históricas amarras regulatórias que marcavam o setor de telecomunicações.
De fato, hoje essa compreensãose mostra não apenas correta, mas absolutamente evidente.A Internet depende de umecossistema extremamente complexo e interdependente. Ela é composta não apenas pela camada de transporte provida pelas telecomunicações, mas tambémpor data centers, pontos de troca de tráfego (IXs), redes de distribuição de conteúdo (CDNs), servidores, aplicações, softwares em diversas camadas, sistemas de segurança, de autenticação, de roteamento, de nomes de domínio, de armazenamento, e muito mais.
Do ponto de vista das telecomunicações, faz todo o sentido classificar a Internet como um Serviço de Valor Adicionado (SVA), algo que “complementa” o serviço, mas com ele não se confunde. Mas falar dessa forma pode dar a impressão errada de que a Internet é apenas algo que estende as telecomunicações, como se fosse uma “telecom com esteróides”, contudo, isso está longe da realidade. Sob a ótica da Internet, as telecomunicações são apenas um dos seus muitos componentes, e não sua totalidade.
É importantereconhecer o mérito de pioneiros como Ivan de Moura Campos, que, em uma Internet nascente, souberam enxergar com clareza essa natureza singular da rede.Graças a essa visão, foi possível construir um modelo que possibilitou o crescimento exponencial da Internet no Brasil, com inclusão, inovação e liberdade.
A criação do CGI.br e a Norma 4/95
Oano de 1995 foi um divisor de águas para a Internet no Brasil. Após anos de articulações, experiências acadêmicas e debates sobre o futuro da rede no país, consolidou-se um dos movimentos institucionais mais relevantes da história digital brasileira:a criação do Comitê Gestor da Internet no Brasil (CGI.br).
A Internet estava em franco crescimento no mundo. No Brasil, era urgente organizar sua expansão, definir formalmente responsabilidades sobre a gestão de recursos críticos, como nomes de domínio e endereços IP, e garantir que esse processo se desse de forma equilibrada, aberta e sustentável.
Ivan de Moura Campos, então Secretário de Política de Informática no Ministério da Ciência e Tecnologia (MCT), foi peça central nessa articulação.Segundo ele relata no podcast, a criação do CGI.br não foi apenas um ato administrativo, mas uma verdadeira engenharia política, institucional e social, que envolveu diferentes esferas do governo, da academia, do setor privado e da sociedade civil.
Concomitantemente, foi publicada a Norma 4/95, um documento que teve impactos gigantescos no desenvolvimento da Internet brasileira. A norma definiu que a Internet no Brasil seria classificada como um Serviço de Valor Adicionado (SVA), não sujeito às regras rígidas das telecomunicações.
Na prática, isso significou quea Internet estaria fora do modelo de concessões, licenciamento e tarifas aplicadas às operadoras de telecom. Empresas, provedores, universidades, ONGs e indivíduos poderiam oferecer acesso à rede, criar serviços, desenvolver negócios e inovar sem depender de autorizações ou concessões estatais.Foi uma decisão visionária. Se a Internet fosse tratada como serviço de telecomunicação, teria sido engessada pelas regras do setor, que na época era um monopólio estatal operado pela Telebrás.Essa decisão libertou a rede para crescer no modelo distribuído, colaborativo e competitivo que conhecemos hoje.
No podcast, Ivan relata que houve resistência dentro do próprio governo, especialmente do então Ministério das Comunicações e dos operadores do sistema Telebrás, que desejavam trazer a Internet para dentro do guarda-chuva regulatório das telecomunicações. A decisão política de manter a coordenação da Internet no Ministério da Ciência e Tecnologia foi intencional e estratégica, garantindo que a governança da rede ficasse associada à inovação, à pesquisa e ao desenvolvimento, e não à lógica das concessões e tarifas.
O modelo do CGI.br foi estruturado com base em um princípio fundamental: a multissetorialidade. Em vez de ser um órgão estatal, subordinado a interesses exclusivamente governamentais, ou uma entidade corporativa, controlada pelo setor privado, o CGI.br foi desenhado como umfórum de participação de diversos setores: 5 representantes da sociedade civil (incluindo academia e terceiro setor), 4 representantes do governo, 1 representante das empresas usuárias e 1 representante dos provedores de acesso e serviços. A coordenação ficou oficialmente sob responsabilidade do Ministério da Ciência e Tecnologia.
Esse modelo foi e continua sendo umainovação institucionalbrasileira, reconhecida internacionalmente como referência. Antes mesmo do termo “governança da Internet” ter sido cunhado e de existirem fóruns globais de governança, como o IGF (Internet Governance Forum), o Brasil havia criado, em 1995, um modelo multissetorial robusto, transparente e efetivo.
O CGI.br passou por uma importante reforma em 2003, quando sua composição foi ampliada para refletir de maneira ainda mais fiel a diversidade dos setores envolvidos na Internet.A partir dessa reforma, o Comitê ganhou um modelo de escolha democrática dos representantes não governamentais, que passaram a ser eleitos por seus respectivos setores.
A composição atual do CGI.br é a seguinte:9 representantes do governo,4 representantes do setor empresarial,3 representantes da comunidade científica e tecnológica,4 representantes do terceiro setore1 representante de notório saber. Os representantes da sociedade civil, academia e setor empresarial são escolhidos por meio de processos eleitorais abertos, transparentes e auditáveis, conduzidos pelo próprio CGI.br, com participação ativa das comunidades envolvidas. Essa reforma não apenas fortaleceu a legitimidade do CGI.br, como também consolidou o modelo multissetorial como um dos pilares centrais da governança da Internet no Brasil.
Representação da composição atual do CGI.br. Fonte:
A criação do CGI.br (Portaria Interministerial 147/1995) e a Norma 4/95 foram os dois atos fundacionais que determinaram o rumo da Internet no Brasil.Eles evitaram que o serviço fosse enquadrado como telecomunicações. Outros marcos também contribuíram decisivamente, como a Lei Geral de Telecomunicações (1997), a privatização da Telebrás (1998) e, mais tarde, o Marco Civil da Internet (2014).Se a Internet tivesse sido regulada exatamente como telefonia de voz, é razoável supor que barreiras de entrada (e.g., outorga e obrigações de universalização) teriam elevado custos, reduzido concorrência e retardado a inovação.
Experiências internacionais ilustram possíveis efeitos de modelos mais fechados:
Etiópia– O antigo monopólio da Ethio Telecom (hoje em abertura gradual) mantém uma das menores penetrações de Internet da África, com preços relativamente altos e inovação limitada.
Zimbábue– Licenças caras e regulação restritiva dificultam a entrada de novos ISPs, prejudicando a expansão da rede.
Paquistão– A dependência de poucos operadores de backbone cria um mercado concentrado, sujeito a práticas anticompetitivas.
Estados Unidos– A consolidação entre grandes operadoras resultou em preços médios elevados e lacunas de cobertura em áreas rurais.
Modelos de controle estatal ou filtragem centralizada também afetam direitos digitais:
China– O “Grande Firewall” bloqueia milhares de domínios internacionais e permite inspeção de tráfego, impactando liberdade de expressão e privacidade.
Rússia– A lei da “Internet soberana” autoriza roteamento interno controlado e bloqueios seletivos, o que gera isolamento parcial em relação à Internet global.
Esses exemplos sugerem que centralização excessiva pode reduzir a diversidade de atores, inibir investimentos e restringir direitos fundamentais.
Graças à visão de Ivan de Moura Campos e de outros pioneiros, o Brasil garantiu uma Internet aberta, acessível, inovadora e livre.Uma decisão técnica, mas profundamente política, que moldou as décadas seguintes.
30 anos de bons frutos: o legado do CGI.br
Ao longo de três décadas,o CGI.br consolidou-se não apenas como um modelo de governança para o Brasil, mas como uma referência internacional em gestão da Internet, sendo frequentemente citado em fóruns globais como exemplo de uma abordagem democrática, técnica, inclusiva e bem-sucedida.
O sucesso do modelo brasileiro de governança da Internet pode ser observado em múltiplas dimensões, começando pela gestão técnica dos recursos críticos da rede no Brasil. Desde sua fundação, o CGI.br, por meio do seu braço executivo, o NIC.br, é responsável pelaadministração do domínio .br, que se tornou internacionalmente reconhecido pela suaqualidade, estabilidade e segurança,sendo um dos mais utilizados no mundo, com mais de 5,4 milhões de nomes registrados. Além disso, realiza adistribuição dos números IP e dos sistemas autônomos (ASN),elementos fundamentais para o funcionamento da Internet.
Domínios .br registrados em função do tempo. Fonte:
Alocações de ASN e endereços IPv6 em função do tempo. Fonte:
Outro destaque do legado do CGI.br é o desenvolvimento de uma infraestrutura depeeringde excelência, representada peloIX.br, o maior conjunto de pontos de troca de tráfego do mundo. A existência do IX.br proporciona melhorias substanciais na qualidade da conexão, aoreduzir significativamente a latênciapara os usuários brasileiros. Além disso,reduz custos operacionaispara provedores e operadoras, uma vez que permite que o tráfego local permaneça no Brasil, evitando roteamentos desnecessários pelo exterior. Isso se traduz diretamente emuma Internet mais rápida, mais eficiente, mais segura e mais baratapara empresas, governos e cidadãos.
Localização dos Sistemas Autônomos presentes nos PTTs de São Paulo e Fortaleza. Fonte:
Além da gestão técnica e da infraestrutura, o CGI.br também exerce um papel central na produção de dados, indicadores e conhecimento sobre a Internet no Brasil. Por meio do Cetic.br,desenvolve pesquisas periódicas e altamente qualificadas que acompanham o desenvolvimento da Internet no país. Estudos comoTIC Domicílios, TIC Empresas, TIC Educação, TIC Saúde, TIC Governo Eletrônico, entre outros, tornaram-se referências para formulação de políticas públicas, desenvolvimento de estratégias empresariais, produção acadêmica e para a compreensão pública dos desafios da inclusão digital e das desigualdades tecnológicas.
O Comitê também atua de forma decisiva na promoção da segurança e da resiliência da Internet brasileira, por meio de iniciativas comoo CERT.br, que é referência nacional e regional no tratamento e resposta a incidentes de segurança. O CGI.br lidera ações de conscientização, treinamento e desenvolvimento de boas práticas em segurança cibernética, combate a spam, mitigação de ameaças e proteção da infraestrutura crítica da Internet.
Outro aspecto fundamental do legado do CGI.br está na sua atuação emeducação, formação de profissionais e disseminação de melhores práticas. Através de cursos, workshops, treinamentos e eventos, como os IX Fóruns, o GTER, o GTS, o BCOP, a EGI, o Fórum da Internet no Brasil, entre tantos outros, o Comitê contribui para a formação de gerações de profissionais, pesquisadores e formuladores de políticas públicas no campo digital. Além disso, apoia iniciativas voltadas para a promoção da acessibilidade, inclusão digital, desenvolvimento de tecnologias abertas e fortalecimento da governança democrática da Internet.
Por fim, não se pode deixar de destacar o aspecto talvez mais intangível, porém mais valioso, desse legado:a legitimidade, a respeitabilidade e o reconhecimento global do CGI.br.O Comitê tornou-se uma referência internacional, servindo de modelo para o desenvolvimento de estruturas como o próprio Internet Governance Forum (IGF) das Nações Unidas. Sua atuação equilibrada, técnica e democrática é frequentemente consultada por outros países e organismos internacionais.
Ivan de Moura Campos resume de forma precisa este legado no podcast:“O maior patrimônio do CGI.br é sua respeitabilidade. O respeito que conquistou, merecidamente, pelo que fez e pela maneira como fez. Isso é raro no serviço público, é raro no setor privado e é raro até na academia. É uma construção coletiva, que precisa ser defendida e preservada.”
Em suma, os 30 anos do CGI.br representam muito mais do que a gestão de uma infraestrutura técnica. São três décadas de construção de um espaço de diálogo, de busca de equilíbrio entre interesses públicos e privados, de defesa da liberdade, da inovação e do desenvolvimento social e econômico proporcionado pela Internet.
Os desafios atuais
Apesar de todo o sucesso acumulado em três décadas de existência, o CGI.br e, mais amplamente, o modelo brasileiro de governança da Internet, se encontram hoje diante de questionamentos, que colocam em dúvida não apenas a validade da estrutura institucional, mas os próprios princípios que sustentam a Internet aberta, livre, inovadora e democrática no Brasil.
Um deles envolve a decisão recente do Conselho Diretor da Anatel, que deliberou, em processo interno, pela revogação da Portaria nº 148/1995 do Ministério das Comunicações, conhecida comoNorma 004/1995. Essa norma estipula que a Internet deve ser considerada um serviço de valor adicionado, um SVA, no contexto do uso dos meios da rede de telecomunicações para o provimento de serviços de conexão à Internet. Ela, em outras palavras, define claramente o limite de até onde vão as telecomunicações, e onde começa a Internet. A Norma 4 apresenta a Internet como o“o conjunto de redes, os meios de transmissão e comutação, roteadores, equipamentos e protocolos necessários à comunicação entre computadores, bem como o softwares e os dados contidos nestes computadores”e o serviço de conexão à Internet como o“Serviço de Valor Adicionado, que possibilita o acesso à Internet a Usuários e Provedores de Serviços de Informações”.
A intenção da Anatel de revogar a Norma 4 é preocupante pois sinaliza potencialmente aintenção de revisar ou reinterpretar fundamentos que estiveram na base do desenvolvimento da Internet no Brasil nas últimas três décadas.
Em paralelo, tramita no Congresso Nacional oProjeto de Lei 4557/2024, que representa um desafio ainda mais concreto e direto.O PL coloca a Internet no mesmo escopo regulatório das Telecomunicações, propondo atribuir à Anatel o papel de reguladora da Internet no Brasil, além de suas funções tradicionais no setor de telecomunicações. Na prática, isso significatransferir para a Anatel todas as competências hoje exercidas pelo CGI.br, incluindo a gestão de recursos como domínios e números IP, desenvolvimento e operação de infraestrutura de Pontos de Troca de Tráfego do IX.br, definição de princípios e diretrizes, ações de segurança, estatísticas, etc.
Se aprovado,o PL poderá esvaziar o modelo multissetorial, transformando o CGI.br em um mero conselho consultivo subordinado à Anatel,sem poder decisório, sem autonomia institucional esem a capacidade de equilibrar os diferentes interesses da sociedade, da academia, do setor privado e do próprio governo.
Ivan de Moura Campos alerta, com clareza, sobre os riscos desse caminho. Para ele,submeter a governança da Internet a uma agência reguladora setorial como a Anatel é um erro profundo, tanto do ponto de vista técnico quanto institucional e político.Isso não apenas ignora a diferença de natureza entre a Internet e os serviços de telecomunicações, como também abre espaço para intervenções que colocam em risco a neutralidade da rede, a liberdade de expressão e o ambiente de inovação que a Internet historicamente proporcionou no Brasil.
Esses movimentos aparentementerepresentam uma inflexão rumo à centralização da governança, à submissão da Internet a modelos ultrapassados de regulação e à erosão dos princípiosque fizeram da Internet brasileira um motor de desenvolvimento econômico, social, científico e cultural nas últimas décadas. Reduzir a Internet à condição de serviço de telecomunicações, ou subordiná-la institucionalmente a uma agência de telecom, é tecnicamente equivocado, institucionalmente inadequado e potencialmente danoso socialmente.É um movimento que contraria o entendimento consolidado no Brasil e no mundo sobre a natureza da rede.
No podcast, Ivan sintetiza esse momento com precisão:“A governança da Internet precisa de mão leve. De equilíbrio. Não pode inibir criatividade, nem liberdade de expressão. O CGI.br é a melhor instituição que temos no Brasil para isso. Submetê-lo a uma agência de telecomunicações é um equívoco técnico, institucional e político”.
O momento, portanto, exige mobilização, vigilância e defesa ativa. Defender o CGI.br e seu modelo não é apenas proteger uma entidade, é proteger a própria Internet brasileira, sua liberdade, sua capacidade de inovação, sua resiliência e seu papel no desenvolvimento social, econômico, científico e cultural do país.
Ouça a história na voz de quem viveu
Se toda essa história que aqui relato parece extraordinária — e ela de fato é —, imagine ouvi-la diretamente de quem a viveu, liderou e ajudou a construir. É exatamente essa oportunidade que oferecemos no episódio especial do podcast Camada 8, produzido pelo NIC.br em comemoração aos 30 anos do CGI.br. Nesse episódio, conduzido por mim, Antonio M. Moreiras, e por Eduardo Barasal Morales, temos uma conversa franca, rica e profundamente reveladora com Ivan de Moura Campos, primeiro coordenador do CGI.br e uma das figuras centrais na construção da Internet brasileira.
Ivan narra, com a lucidez e a generosidade que sempre o caracterizaram, episódios marcantes dessa trajetória: desde sua inusitada entrada no mundo da computação, passando pela criação do CGI.br, pela elaboração da Norma 4, até os bastidores das grandes decisões que moldaram a Internet no Brasil. E, claro, também compartilha suas reflexões sobre os desafios atuais, o risco que o modelo multissetorial enfrenta, e as ameaças que pairam sobre a governança da rede.
O episódio é mais do que uma aula de história. É um testemunho vivo de como visão, técnica, compromisso público e coragem política podem transformar um país. E é, também, um alerta: tudo aquilo que foi construído com tanto esforço, ao longo de três décadas, pode ser perdido se não formos capazes de entender, valorizar e defender esse legado.
Ouça o episódio no link a seguir, ou procurando porCamada 8na sua plataforma favorita: Spotify, Apple Podcasts, Google Podcasts, YouTube, ou diretamente no site do NIC.br. É uma oportunidade única de aprender com quem fez história.
Defender o legado e construir o futuro
O modelo de governança da Internet no Brasil, capitaneado pelo CGI.br, não é representado apenas por uma entidade administrativa.É uma construção social, política e técnica que reflete um compromisso com os princípios de uma Internet aberta, livre, inovadora e inclusiva.É uma expressão concreta da crença de quedecisões sobre uma infraestrutura tão fundamental para a sociedade devem ser tomadas de forma democrática, transparente e multissetorial, e não capturadas por interesses estatais, corporativos ou de setores isolados.
Ao completar30 anos, o CGI.br não celebra apenas sua longevidade institucional.Celebra, sobretudo, o sucesso de um modelo que possibilitou ao Brasil desenvolver uma Internet robusta, eficiente, acessível, segura e promotora de desenvolvimento econômico, social, científico e cultural.
Mas esse aniversário não é apenas uma celebração. É também um chamado. Os desafios que enfrentamos hoje, desde tentativas de subordinar a governança da Internet à lógica das telecomunicações, até projetos de lei que ameaçam esvaziar sua natureza multissetorial, exigem vigilância, mobilização e defesa ativa.
Defender o CGI.br, seu modelo e seus princípios é, hoje, mais do que nunca, defender a própria Internet brasileira. Defender nossa liberdade, nossa soberania digital, nossa capacidade de inovar, de empreender, de nos comunicar, de aprender, de criar e de transformar.
O futuro da Internet no Brasil, como sempre foi, continua sendo uma escolha. Que ela seja, como foi no passado e deve continuar a ser no futuro, uma escolha coletiva, aberta e democrática.
Ivan e equipe do NIC.br, celebrando após a gravação do episódio comemorativo dos 30 anos do CGI.br para o Podcast Camada 8.
Aviso Legal (Disclaimer):
Este texto constitui manifestação exclusivamente pessoal do autor e reflete suas opiniões, interpretações e percepções individuais. As ideias aqui expressas são de inteira responsabilidade do autor e não representam, sob nenhuma hipótese, as posições institucionais, políticas, estratégias ou opiniões de seu empregador, de organizações com as quais mantenha vínculo profissional, nem de qualquer entidade pública ou privada com a qual tenha ou tenha tido relação. O conteúdo tem finalidade estritamente informativa e não deve ser interpretado como posicionamento oficial, aconselhamento técnico, jurídico ou institucional. A reprodução ou utilização deste material deve respeitar os direitos autorais e não exime o leitor de realizar sua própria análise crítica ou de consultar fontes oficiais para embasamento decisório.
Comunicação e cooperação entre redes: a base da Internet
A Internet não é uma entidade única, centralizada, controlada por uma organização. Ela é, por definição, um sistema distribuído composto por milhares de redes independentes. Cada uma dessas redes, conhecidas como Sistemas Autônomos (AS), é operada por uma entidade distinta: pode ser um provedor de acesso à Internet, um Provedor de Aplicações e Conteúdos (CAP), um provedor de trânsito ou transporte, uma rede de entrega de conteúdo (CDN), uma empresa, uma universidade ou um órgão público.
Essas redes se comunicam usando protocolos padronizados, principalmente o BGP (Border Gateway Protocol), que permite anunciar e descobrir rotas entre redes. Atualmente, existem aproximadamente80 mil AS operando globalmentee cerca de9 mil no Brasil. Não existe uma autoridade central que diga como essas redes devem se comunicar. Elas decidem, de forma independente, com quais outras redes querem estabelecer comunicação, em quais pontos e sob quais condições.
Ferramentas e práticas surgiram da necessidade concreta de permitir que essas redes se encontrem, troquem informações e coordenem aspectos operacionais da comunicação entre si.Essas soluções não são impostas de cima para baixo, mas sim desenvolvidas pela própria comunidade técnica da Internet.Entre elas, uma se tornou essencial para viabilizar essa organização de forma prática, transparente e escalável: o PeeringDB, que é o principal assunto deste artigo.
Peering e sua importância para o desempenho das redes
Para que a comunicação entre redes seja eficaz, ela precisa ocorrer da forma mais direta, estável e econômica possível. É nesse contexto que surge o conceito depeering, que é o acordo entre duas redes para trocarem tráfego diretamente entre si, sem a intermediação de uma rede de trânsito paga. Esse modelo de comunicação direta costuma ocorrer de forma gratuita ou com custos operacionais compartilhados, dependendo das condições acordadas entre as partes. O peering também pode ser chamado de troca de tráfego.
No peering, duas ou mais redes estabelecem uma comunicação física e sessões BGP entre si, anunciando seus blocos de endereços IP e os de seus clientes diretos umas às outras. As redes estabelecem assim uma comunicação direta. Os anúncios não são repassados para a Internet global, nem os anúncios provenientes dela são repassados à rede parceira, ou redes parceiras, de forma que não há “trânsito” de dados de ou para a Internet global, apenas comunicação local entre as redes participantes do acordo.
O peering melhora o desempenho ao encurtar o caminho que os pacotes percorrem, reduzindo a latência e o número de saltos. Também aumenta a previsibilidade do tráfego e evita gargalos comuns em links de trânsito. Do ponto de vista econômico, ele contribui para a redução de custos com banda contratada de terceiros.
Além disso, o peering é uma prática que sustenta a arquitetura distribuída da Internet, favorecendo a diversidade de caminhos e evitando dependência excessiva de grandes operadoras globais. A sua adoção, especialmente quando estimulada por pontos de troca de tráfego (IXP), contribui diretamente para a eficiência da comunicação entre redes em âmbito local, regional e global.
O desafio da organização descentralizada
A comunicação entre redes na Internet não acontece por acaso. É preciso que cada rede decida com quem deseja trocar tráfego, em quais locais essa troca ocorrerá e sob quais condições técnicas e administrativas. Em um ecossistema com dezenas de milhares de AS espalhados pelo mundo, encontrar e manter relacionamentos técnicos confiáveis não é trivial.
Ao contrário de modelos centralizados, nos quais uma autoridade define como as partes devem se comunicar,a Internet funciona com base em decisões voluntárias, bilaterais ou multilaterais, entre as redes.
Essa coordenação ocorre por meio de diferentes mecanismos criados e mantidos pela própria comunidade técnica.Um dos principais são os pontos de troca de tráfego, ou IXP, que atuam como plataformas neutras onde diversas redes se encontram fisicamente para estabelecer sessões de peering.Além de prover infraestrutura, os IXP frequentemente incentivam o relacionamento entre os participantes e facilitam a visibilidade mútua entre redes.
Outro componente importante são os encontros presenciais e fóruns regionais e globais de peering. Eventos como o LAC Peering Forum, o IX Fórum e o GTER no Brasil, o Global Peering Forum reúnem operadores de redes para compartilhar experiências, debater boas práticas e, principalmente, negociar acordos de peering.Esses ambientes presenciais fortalecem vínculos e aceleram o estabelecimento de novas comunicações diretas entre redes.
A existência desses mecanismos mostra que,mesmo sem uma autoridade central, o ecossistema da Internet dispõe de estruturas eficazes de cooperação e coordenaçãopara facilitar o peering e manter a comunicação fluindo com eficiência. Isso impõe um desafio: como documentar e organizar essas relações de forma acessível, auditável e funcional, sem abrir mão da descentralização?
Foi nesse contexto que a comunidade técnica da Internet criou mecanismos colaborativos para permitir que redes encontrem parceiros, publiquem suas características técnicas e comerciais, e mantenham atualizadas suas informações de comunicação. Um desses mecanismos tornou-se fundamental para a interligação entre redes e é hoje uma das ferramentas mais usadas e respeitadas do ecossistema: o PeeringDB.
O que é o PeeringDB e como ele surgiu
O PeeringDB é um banco de dados público, gratuito e mantido pela própria comunidade técnica da Internet. Nele, Sistemas Autônomos (AS), pontos de troca de tráfego (IXP) e data centers (facilities) publicam informações relevantes para facilitar o estabelecimento de peering e a expansão de suas comunicações.
O projeto teve início em 2004, inicialmente mantido por voluntários e com uso restrito a alguns grupos da comunidade de redes. Rapidamente, no entanto, ele se mostrou uma ferramenta essencial para operações cotidianas de redes em todo o mundo. Em 2016, foi formalizado como uma organização sem fins lucrativos, com estrutura de governança transparente e participativa, voltada exclusivamente à manutenção e aprimoramento da plataforma.
Desde então, o PeeringDB evoluiu para se tornar uma das mais importantes referências globais em informações sobre comunicação entre redes. Sua adesão massiva e seu modelo de atualização distribuída o tornam um exemplo claro de como a Internet se organiza de forma colaborativa, eficaz e responsável.
Como funciona o PeeringDB
O PeeringDB é uma base de dados colaborativa. A maior parte das informações cadastradas na plataforma é fornecida diretamente pelas própriasredes (AS), que mantêm seus perfis atualizados de forma voluntária. Isso inclui, por exemplo, a declaração de presença emIXP (pontos de troca de tráfego)efacilities (data centers). São as próprias redes que informam onde estão presentes, com que capacidades técnicas e sob quais políticas de peering operam.
O PeeringDB organiza esses dados em três categorias principais:
Networks (redes):cada AS publica seu perfil contendo número de sistema autônomo (ASN), política de peering (aberta, seletiva ou restrita), volume estimado de tráfego, prefixos anunciados, IPs de peering, contatos técnicos e administrativos, e a lista de IXPs e data centers onde mantém presença.
IXP (pontos de troca de tráfego):os operadores dos IXP mantêm seus perfis com dados institucionais como nome, localização, contatos, política de participação e facilidades oferecidas. No entanto, a lista de redes participantes não é editada por eles diretamente. Essa lista é construída automaticamente com base nas declarações feitas pelas redes que informam estar presentes no IXP.
Facilities (data centers):seguem lógica semelhante. O operador da instalação publica dados sobre o local, mas são as redes que declaram sua presença física ali. Dessa forma, o número de redes listadas em cada data center reflete as autodeclarações feitas por quem realmente está operando na instalação.
Essas informações podem ser acessadas por meio da interface web do PeeringDB ou consultadas de forma programática via umaAPI pública, amplamente utilizada para automatizar processos em ferramentas de gestão de rede e plataformas de IXPs.
Essa estrutura distribuída e autorregulada torna o PeeringDB uma ferramenta eficiente, confiável e amplamente utilizada para planejamento de interconexões, estabelecimento de novos acordos de peering e aumento da visibilidade no ecossistema global da Internet.
Quem usa e por que: benefícios para cada perfil
O PeeringDB é amplamente utilizado por diferentes atores do ecossistema da Internet, desde operadoras regionais até grandes plataformas globais de conteúdo. Para as redes, especialmente provedores de acesso, CDN, CAP (Content and Application Providers), redes corporativas e acadêmicas, ele é uma ferramenta essencial para planejar presença em novos pontos de troca de tráfego ou data centers, identificar potenciais parceiros de peering e publicar informações que aumentam sua visibilidade e facilitam contatos técnicos. Essas redes mantêm seus perfis atualizados, o que permite que outras redes consultem dados operacionais e estratégicos, como políticas de peering, volume de tráfego e locais de atuação.
Além disso, muitas redes automatizam suas configurações de roteamento com base nas informações disponíveis no PeeringDB. É comum, por exemplo, que ferramentas internas ou scripts configurem automaticamente sessões BGP para peering bilateral ou multilateral, consultando diretamente a API da plataforma. Isso reduz a chance de erros manuais, acelera o provisionamento e garante consistência com as políticas publicadas pelos participantes.
Pontos de troca de tráfego (IXP) também se beneficiam diretamente da plataforma, já que ela permite mostrar sua relevância técnica e atrair novas redes. As informações inseridas pelos próprios participantes ajudam a construir um retrato confiável do IXP, e facilitam processos de integração com ferramentas como o IXP Manager, além de simplificar o acesso a contatos e dados técnicos das redes participantes. Muitos IXP utilizam também os dados do PeeringDB para gerar filtros de roteamento, como no caso de ASN marcados como “não anunciar via IXP” (do not announce), evitando a propagação indevida de rotas.
Da mesma forma, operadores de data centers usam o PeeringDB para divulgar sua infraestrutura, as redes presentes em suas instalações e os serviços que oferecem. Isso contribui para atrair novos clientes interessados em ambientes com alta densidade de interligação e acesso facilitado à Internet Exchanges e outras redes.
Por fim, a comunidade técnica como um todo, especialmente desenvolvedores de sistemas de automação e equipes de engenharia de redes, utiliza intensamente a API pública do PeeringDB para alimentar ferramentas de roteamento, geração de filtros, painéis operacionais e scripts de provisionamento. Isso mostra que o valor do PeeringDB vai muito além de sua interface web: ele é parte ativa do funcionamento cotidiano da Internet moderna.
A escala do PeeringDB hoje
O PeeringDB atingiu uma escala impressionante desde sua criação, consolidando-se como a principal base de dados global para informações sobre comunicação entre redes. Atualmente, a plataforma reúne perfis de mais de36 mil Sistemas Autônomos (AS),mais de 800 pontos de troca de tráfego (IXP)e cerca de2 mil data centers (facilities)em todos os continentes. Esses números, em constante crescimento, refletem a confiança da comunidade técnica no modelo aberto e colaborativo que sustenta a ferramenta.
Entre os participantes, estão os maiores provedores de conteúdo do mundo, provedores de aplicações, CDN, operadoras Tier 1, redes acadêmicas e científicas, governos, empresas regionais e locais, além de pequenos provedores e iniciativas comunitárias. A adesão é voluntária, mas praticamente universal entre redes que mantêm presença técnica e operacional relevante na Internet. O PeeringDB tornou-se tão presente no cotidiano da engenharia de redes que muitas decisões técnicas e comerciais são tomadas com base nas informações que ele fornece.
A força do PeeringDB está justamente na sua escala e no modelo distribuído de atualização. Ao permitir que cada entidade seja responsável por suas próprias informações, a plataforma consegue manter dados atualizados e confiáveis sem depender de uma autoridade central. Isso reforça o papel do PeeringDB para ajudar a manter toda a infraestrutura da Internet global.
Um modelo que funciona e que não depende de controle central
O sucesso do PeeringDB é um exemplo claro de como a Internet se organiza por meio da colaboração técnica, da confiança mútua e da adoção de boas práticas, sem depender de estruturas hierárquicas, ou autoritárias.Trata-se de um modelo distribuído, mantido pela própria comunidade de redes, no qual cada entidade é responsável por suas informações e por sua postura em relação à comunicação com os demais participantes do ecossistema.
Em vez de uma autoridade central que determine regras ou imponha processos,o que existe é um conjunto de ferramentas, como o próprio PeeringDB, que permitem a organização eficiente de acordos entre redes, com base em dados públicos, padronizados e auditáveis. A confiança é construída pela transparência: qualquer rede pode consultar os dados, verificar a presença e a política de peering de outra, e tomar decisões técnicas com base nessas informações.
Entender em profundidade esse tipo de arranjo é especialmente importante em um momento em que surgem propostas de regulação, que buscam influenciar ou controlar os fluxos de tráfego e as relações entre redes, muitas vezes sem compreender a lógica técnica e operacional que sustenta a Internet.Por exemplo as propostas em torno do fair share, pedágio de rede e suas variantes, procurando regular de alguma forma relações de peering, e que estão na pauta de muitas entidades reguladoras de telecomunicações globalmente.O PeeringDB, em conjunto com Internet Exchanges, fóruns técnicos e outras ferramentas e processos abertos, se provam mecanismos eficazes de coordenação e de estímulo à comunicação eficiente entre redes.Mecanismos que funcionam e são construídos de baixo para cima, por quem opera a rede no dia a dia.
Ao invés de impor barreiras ou exigências externas que possam prejudicar a flexibilidade e a eficiência do sistema, o melhor caminho é fortalecer iniciativas como o PeeringDB e os diferentes Peering Fóruns que acontecem globalmente, que provam, na prática, quea cooperação técnica pode escalar e sustentar uma rede mundial funcional, resiliente e aberta.
Descentralização, cooperação, transparência e autonomia técnica.
O PeeringDB é, ao mesmo tempo, simples e essencial. Ele não é uma plataforma sofisticada, cheia de camadas ou intermediários. É uma base de dados pública, construída pela própria comunidade, que organiza de forma prática e confiável as informações necessárias para que as redes possam se comunicar melhor. E isso, em uma Internet composta por dezenas de milhares de Sistemas Autônomos, é absolutamente fundamental.
Se você opera uma rede, seja um provedor de acesso, uma CDN, um CAP, uma rede corporativa, um IXP ou um data center, manter um perfil atualizado no PeeringDB é mais do que uma boa prática. É uma forma de participar ativamente do ecossistema técnico da Internet, contribuindo para que ela funcione de forma mais eficiente, previsível e aberta. É também uma forma de tornar sua rede mais visível, acessível e preparada para novas oportunidades de comunicação direta com outros participantes.
O PeeringDB é uma das engrenagens invisíveis que sustentam a Internet como a conhecemos. Ele funciona porque é confiável, porque é útil, e porque respeita princípios que fizeram a Internet dar certo até aqui:descentralização, cooperação, transparência e autonomia técnica.
Fortalecer esse tipo de ferramenta é, em última análise, fortalecer a própria Internet.
O IX.br Fortaleza atingiu uma marca histórica:ultrapassou os 6 Tbps de pico de tráfego. Essa conquista consolida o Ponto de Troca de Tráfego da capital cearense como osegundo maior do Brasile um dos maiores Internet Exchanges do mundo, reforçando a importância estratégica da região para a infraestrutura da Internet no país e no cenário internacional.
Tráfego do IX.br Fortaleza em 16 de maio de 2025. Dados do https://ix.br/.
Fortaleza hoje tem832 AS participantes, sendo 716 visíveis na tabela de rotas dos Route Servers (viahttps://lg.ix.br/). São11 PIX(Pontos de presença em Datacenters: Etice, Vtal, Giga Mais, RNP, Eletronet, BR Digital, Ascenty, Angola Cables, Hostweb, Cirion e Telxius) e17 CIX(fornecedores de portas compartilhadas: BR Digital, ITS, Alares Internet, G8, Aloha, Aranet Play, BBG Telecom, BitNet Soluções, Open X, Inforbarra, ProveNET, Smart Soluções, TexNet Telecom, AllNet, Boomerang Telecom, Atual Telecom e St1 Internet). Dos8592 AS Brasileiros que vemos anunciando prefixos na tabela Global BGP da Internet, 7869 anunciam prefixos direta ou indiretamente (por meio de outros AS) em Fortaleza, isso representa cerca de 90%.
Essa descentralização é fruto direto de políticas acertadas, do investimento em infraestrutura, da atuação do NIC.br e da inteligência do modelo de governança multissetorial do CGI.br. Fortaleza, com sua conexão privilegiada a cabos submarinos vindos da Europa e América do Norte, tornou-se um hub internacional, contando também com um ecossistema robusto de datacenters e presença crescente de CDNs, grandes ISPs e sistemas autônomos de todos os portes.
Presença de AS no IX.br Fortaleza, CE. Dados do https://mapadeas.ceptro.br/.
Presença de AS no IX.br Fortaleza, CE. Dados do https://mapadeas.ceptro.br/.
Redundância estratégica: Fortaleza como espelho técnico de São Paulo
O IX.br Fortaleza não serve apenas como elo regional ou hub internacional. Ele também tem sido adotado por muitos Sistemas Autônomos (AS), incluindo provedores de acesso, CDNs, universidades, operadoras e grandes redes corporativas, como umaestrutura de redundância técnica em relação ao IX.br São Paulo.
Mapas de distribuição mostram que uma parcela significativa dos AS presentes em Fortaleza também está conectada a São Paulo, mesmo estando fisicamente em outras regiões do país. Essa dupla participação permite rotas alternativas, maior resiliência e continuidade de operação em caso de falhas, manutenções ou degradação de desempenho em um dos pontos.
AS no IX.br Fortaleza (azuis) e IX.br São Paulo (vermelho). Os círculos verdes representam os AS simultaneamente em ambas as localidades. Dados do https://mapadeas.ceptro.br/.
Essa estratégia de redundância se aplica também aoacesso a conteúdo e aplicações. Hoje,Fortaleza conta com a presença direta de ao menos 20 grandes geradores de conteúdo e CDNs, entre elesGoogle, Netflix, Meta (Facebook/Instagram), Akamai, Microsoft, Globo, Amazon, Azion, Cloudflare, Fastly, Twitch, UPX, Edgeuno, Alibaba Cloud CDN, Bytedance (TikTok), Tencent, CDNetworks, CDN77, GoCache e SingularCDN. Isso permite que conteúdos altamente demandados estejam acessíveis com baixa latência para todo o Norte, Nordeste e outras regiões, sem depender exclusivamente de São Paulo.
Assim,Fortalezacontribuí de forma muito concreta para aresiliência, escalabilidade e soberania da Internet no Brasil.
IX Fórum Fortaleza 2025: muito além da troca de tráfego
Banner do IX Fórum Fortaleza, realizado em 4 e 5 de junho de 2025.
É nesse contexto que realizaremos, nos dias4 e 5 de junho, oIX Fórum Fortaleza 2025, seguido peloFórum BCOP, no dia6 de junho. O evento traz uma programação técnica de altíssimo nível, com temas como: Engenharia de tráfego e communities no IX.br, Segment Routing e atualizações da infraestrutura, Inteligência Artificial no atendimento, Cabos submarinos, Bloqueio de IPs e URLs, Migração de VPN para eVPN, Uso do espectro de 6GHz e Wi-Fi 7.
Estarão presentes especialistas comoCarlos Afonso, Flávia Lefèvre, Renata Mielli, Julio Sirota, Milton Kaoru, Gustavo Kalau, Thiago Ayub, Pedro Botelho, entre outros representantes de provedores, datacenters, academia e comunidade técnica.
A participação égratuitae aberta, tantopresencialmente(na Fábrica de Negócios, em Fortaleza) quantoonline, comtransmissão simultânea em português e inglêspelo canalNICbrVideos no YouTube.
Um modelo a defender
O crescimento e o sucesso do IX.br e do PTT Fortaleza são frutos do modelo de governança da Internet adotado no Brasil: colaborativo, multissetorial, técnico e comprometido com o interesse público. Um modelo que vem sendo questionado e mesmo ameaçado por propostas sobre as quais escrevi aqui anteriormente.
Proteger a continuidade desse modelo é proteger o futuro da Internet no Brasil.
Imagem ilustrativa do modelo de governança de Internet Brasileiro, representando CGI.br e NIC.br.
Vamos celebrar os 6 Tbps de Fortaleza e reforçar nosso compromisso com uma Internet técnica, aberta, distribuída, multissetorial e democrática.
IX.br Fortaleza, CE, reached a historic milestone:6 Tbps of peak traffic. This achievement consolidates the Internet Exchange Point (IXP) in the capital of Ceará as thesecond largest in Braziland one of thelargest IXPs in the world, reinforcing its strategic importance for Internet infrastructure both in Brazil and internationally.
Data from https://ix.br/.
Fortaleza currently hosts832 Autonomous Systems (ASNs), with716 visible in the Route Server tables(according tohttps://lg.ix.br). The platform includes11 PIX(physical interconnection locations in different datacenters — such as Etice, Vtal, Giga Mais, RNP, Eletronet, BR Digital, Ascenty, Angola Cables, Hostweb, Cirion and Telxius) and17 CIX(shared port providers such as BR Digital, ITS, Alares Internet, G8, Aloha, Aranet Play, BBG Telecom, BitNet, Open X, Inforbarra, ProveNET, Smart Soluções, TexNet Telecom, AllNet, Boomerang Telecom, Atual Telecom and St1 Internet).
Out of the8,592 Brazilian ASNs announcing prefixes in the global BGP table,7,869 advertise routes directly or indirectly (through upstream ASNs) in Fortaleza— that’s more than90%of all national networks.
A consistent trajectory of growth
This latest record didn’t come out of nowhere. It reflects years of consistent expansion: back in2018, Fortaleza celebrated itsfirst 100 Gbps peak. By2023, the local exchange already exceeded4 Tbpsand entered thetop 10 largest IXPs in the world. Now, with over6 Tbps, we are witnessing not only technical growth, but also a transformation in Brazil’s Internet traffic distribution:less centralized in São Pauloand increasingly spread across the country — especially into theNortheastregion.
This decentralization results from a combination ofsound policy choices, infrastructure investment, the proactive role ofNIC.br, and the maturity ofBrazil’s multistakeholder Internet governance modelunder the Brazilian Internet Steering Committee. Fortaleza, with itsprivileged landing of submarine cablesfrom Europe, Africa and North America, has emerged as aninternational interconnection hub, enhanced by its vibrant local ecosystem of datacenters, CDNs, telecoms, and independent network operators.
Presence of AS at IX.br Fortaleza
Presence of AS at IX.br Fortaleza.
Redundancy and content: Fortaleza as São Paulo’s technical backup
More than just a regional hub,IX.brFortaleza has increasingly been adopted byASNs across the countryas aredundant and resilient alternative to São Paulo, including major access providers, CDNs, universities, carriers, and corporate networks.
Geographical analysis shows that alarge portion of ASNs connected in Fortaleza are also present in São Paulo, enablingalternative routing pathsandoperational continuityin case of failures, congestion, or maintenance.
ASNs at IX.br Fortaleza (blue) and IX.br São Paulo (red). Green circles represent ASNs present at both locations. Data from https://mapadeas.ceptro.br/.
Fortaleza is also home to a rich ecosystem of content delivery. At least20 global CDNs and content providersmaintain a local presence — includingGoogle, Netflix, Meta (Facebook/Instagram), Akamai, Microsoft, Globo, Amazon, Azion, Cloudflare, Fastly, Twitch, UPX, Edgeuno, Alibaba Cloud CDN, Bytedance (TikTok), Tencent, CDNetworks, CDN77, GoCache and SingularCDN.
This guaranteeslow-latency access to popular contentnot just for Northeast Brazil, but also for other regions — without relying exclusively on São Paulo.
Fortaleza has become aresilient and scalable nodein Brazil’s Internet infrastructure — and an essential piece for anyinternational CDN or provideraiming to optimize performance and reach in Latin America.
IX Fórum Fortaleza 2025: beyond peering
In this context, we invite you to join us for theIX Fórum Fortaleza 2025, happening onJune 4–5, followed by theBCOP Technical Forum on June 6. The event will feature ahigh-level technical agenda, including: BGP communities and traffic engineering at IX.br, Segment Routing at IX.br, AI-driven automation in customer service, Submarine cables, IP and URL blocking (legal and regulatory impacts), Migration from VPN to eVPN, 6 GHz spectrum and Wi-Fi 7.
https://fortaleza.forum.ix.br/
The event isfree of charge, open to all participants — bothon-site in Fortaleza (Fábrica de Negócios)andstreamed onlinewithsimultaneous translation in English and Portuguese:https://fortaleza.forum.ix.br–NICbrVideos on YouTube
A governance model worth defending
The success of IX.br and the evolution of Fortaleza as a major Internet hub are directly linked to Brazil’sInternet governance model: collaborative, multistakeholder, technically driven, and committed to the public interest. This model is under pressure from proposed regulations and legislative initiatives (seehttps://www.linkedin.com/pulse/from-worlds-largest-internet-exchange-threat-brazil-moreiras-yhyef/) which risk undermining the autonomy and neutrality that made IX.br possible in the first place.
Defending this model means defending the future of the Internet in Brazil.
Let’s celebrate Fortaleza’s 6 Tbps peak — and reaffirm our commitment to an open, distributed, resilient and technically sound Internet for all.
Um marco histórico: o Brasil no topo da infraestrutura global da Internet
Em abril de 2025, o Brasil atingiu um marco notável no cenário da infraestrutura da Internet: o IX.br, iniciativa nacional de Pontos de Troca de Tráfego (IXPs), alcançou um pico de tráfego agregado de40 terabits por segundo (Tbps). Esse número, por si só, já é impressionante. Mas o dado mais emblemático é que oIX.br São Paulo, sozinho, ultrapassou25 Tbpsde tráfego de pico.
Tráfego agregado do IX.br em 22.04.2025
O IX.br não é um único ponto de troca de tráfego Internet, mas sim um sistema distribuído que hoje reúne38 IXPsem diferentes cidades brasileiras. Essa estrutura atende diretamente4.255 Sistemas Autônomos (ASNs), formando o maior ecossistema de interconexão da América Latina e, em número de participantes, do mundo. A presença física se viabiliza por meio de183 PIX (Pontos de Interligação ao IX), pontos de presença do IX.br instalados em datacenters parceiros, além de mais de1.000 CIX (Canais para o IX), canais operados por terceiros que permitem conexões indiretas à infraestrutura do IX.br.
Para dimensionar esse feito, vale compará-lo com os principais IXPs globais:
DE-CIX(Global): Em abril de 2025, o conjunto de IXPs operados pelo DE-CIX, presente em mais de 50 localidades, atingiu25 Tbpsde tráfego agregado.
AMS-IX(Amsterdã): Apresentou recentemente um pico de tráfego de aproximadamente14 Tbps.
CABASE(Argentina): Atinge cerca de4 Tbpsde tráfego agregado.
PIT Chile(Chile): Reporta picos em torno de15 Tbps.
Esses números evidenciam que o IX.br São Paulo é hoje omaior ponto de troca de tráfego do mundo em volume individual, e o IX.br como projeto representa omaior sistema de IXPs sob uma única gestão (*). Esse resultado é fruto de um modelo técnico e institucional singular — descentralizado, neutro, multissetorial e amplamente acessível — que será detalhado nos tópicos seguintes.
O que é o IX.br e por que ele funciona
O IX.br, sigla para Brasil Internet Exchange, é uma iniciativa do NIC.br (Núcleo de Informação e Coordenação do Ponto BR), braço executivo do Comitê Gestor da Internet no Brasil (CGI.br). Foi criado para promover a interconexão direta entre Sistemas Autônomos (AS), permitindo que os dados trafeguem localmente, de forma mais eficiente, econômica e com menor latência. Na prática, o IX.br permite que provedores de conteúdo, provedores de conexão, empresas, órgãos públicos e instituições acadêmicas troquem tráfego entre si diretamente, sem depender de trânsito internacional ou de intermediários.
Sua infraestrutura é, por projeto,descentralizada. OsPIXestão instalados em datacenters parceiros e abrigam os switches e roteadores que viabilizam a interligação dos participantes. O NIC.br é responsável pela operação técnica, incluindo instalação de equipamentos, configuração, suporte e manutenção contínua. Cada IXP pode contar com vários PIX interligados dentro de uma cidade ou região metropolitana, formando uma malha que permite a qualquer participante se conectar por um PIX e alcançar todos os demais. Em São Paulo, por exemplo,32 PIXestão interligados por fibra óptica, formando uma única estrutura lógica de troca de tráfego.
Mapa dos PIX do IX.br São Paulo, SP
Diagrama lógico mostrando os PIX do PTT São Paulo
Complementam esse modelo mais de1.000 CIX,canais de acesso operados por terceiros, como ISPs regionais ou datacenters locais. Eles permitem que participantes se interliguem indiretamente por meio de portas compartilhadas, o quedemocratiza o acessoe viabiliza a entrada de pequenos provedores. Se o IX.br fosse um IXP comercial, provavelmente chamaria esse modelo de “revenda de porta”.
O modelo financeiro também é chave: o IX.br é mantido principalmente com recursos doregistro de domínios .br, o que permite que a participação seja gratuita na maioria das localidades, com exceção de São Paulo, Rio de Janeiro e Fortaleza, onde há cobrança por porta desde 2017. Esse fator ajuda a explicar por que o IX.br reúne mais de4.200 Sistemas Autônomos, mais do que qualquer outro IXP no mundo.
Outro pilar é aneutralidade. O IX.br ésem fins lucrativos,não é controlado por operadorasenão vende trânsito IP. Ele apenas oferece a infraestrutura para que as redes se interliguem, as decisões de peering cabem aos participantes. Isso garante isonomia, confiança e estabilidade.
Esse modelo, construído ao longo de duas décadas, é fruto direto de um arranjo de governança que equilibra interesses públicos e privados, técnicos e sociais, tema do próximo item.
Como funciona a governança da Internet no Brasil
A governança da Internet no Brasil é amplamente reconhecida como exemplo bem-sucedido do modelomultissetorial (multistakeholder). Trata-se de um arranjo institucional construído nas últimas três décadas, baseado na ideia de que a Internet é diversa e estratégica demais para ser controlada por apenas um setor. No centro desse modelo está oComitê Gestor da Internet no Brasil (CGI.br), criado em 1995 por Portaria Interministerial dos Ministérios das Comunicações e da Ciência e Tecnologia.
O CGI.br é composto por21 integrantes, com representação equilibrada entre governo e sociedade civil. São12 membros não governamentais(de empresas, academia, terceiro setor e comunidade técnica) e9 governamentais, indicados por órgãos públicos. As decisões são tomadas de forma colegiada, preferencialmente por consenso, com ampla publicidade das atas e resoluções.
Composição do CGI.br
Ao CGI.br cabe definir as diretrizes estratégicas para o uso da Internet no país. Ele coordena as iniciativas executadas peloNIC.br, entidade sem fins lucrativos que atua como seu braço operacional e técnico.
O NIC.br realiza o registro de domínios “.br” (via Registro.br), opera o IX.br, distribui endereços IP (em cooperação com o LACNIC), mantém projetos como o NTP.br, promove a adoção de IPv6 e DNSSEC, organiza cursos técnicos, eventos, publicações e atua em diversas outras frentes de interesse público.
Esse modelo reúne características de forma inovadora:autonomia técnica e financeira, com legitimidade social. A governança da Internet no Brasil não é subordinada a uma agência reguladora, a um ministério ou a empresas. Ela se organiza de forma colaborativa, plural, usando recursos privados advindos do registro de nomes de domínios, e voltada ao interesse público, mesmo quando dialoga com os interesses legítimos de diferentes setores.
Foi dentro desse modelo que o IX.br se desenvolveu. E é por isso que ele pode operar em larga escala, com neutralidade, custos baixos e ampla capilaridade. Esse equilíbrio, no entanto, está sendo reavaliado.
O modelo brasileiro de telecomunicações e a separação legal
Um dos fundamentos técnicos e jurídicos que sustentam a Internet no Brasil e que viabilizam projetos como o IX.br é aseparação legal entre serviços de telecomunicações e serviços de valor adicionado (SVA). Essa distinção está prevista naLei Geral de Telecomunicações (Lei nº 9.472/1997), naNorma nº 4/1995e foi reiterada em pareceres da própria Anatel ao longo dos anos.
Na prática, isso significa que a Internet não é tratada como um meio de telecomunicação tradicional, mas como um serviço queutiliza a infraestrutura de telecomunicações sem se confundir com ela. Ou seja, cabos, fibras, torres e enlaces são parte da camada física das telecomunicações; já os serviços da Internet, como protocolos, aplicações, endereços IP, roteadores, tabela BGP, e conteúdo pertencem a uma camada distinta, lógica e funcional.
Esse modelo permitiu quemilhares de provedores regionaisatuassem com liberdade e baixo custo regulatório, desde que operando em redes próprias ou em infraestrutura licenciada de terceiros. Isso favoreceu a diversidade, a competição e a interiorização da conectividade, características que também fortalecem o IX.br.
Por outro lado, os serviços de telecomunicações, como telefonia, rádio, TV e transporte físico de dados, são regulados diretamente pelaAgência Nacional de Telecomunicações (Anatel), que concede outorgas, define metas, fiscaliza contratos e cobra tributos específicos.
Essa divisão de competências funcionou bem por mais de duas décadas, permitindo que a Internet evoluísse com agilidade, autonomia e inovação, paralelamente às redes legadas de telecom. Hoje, no entanto,o contexto político e regulatório reacende o debate sobre como esse equilíbrio deve ser mantido ou adaptado.
A Anatel tem sinalizado a intenção de revogar a Norma nº 4/1995. Embora a agência não tenha afirmado explicitamente que a Internet deva ser reclassificada como serviço de telecomunicações,essa possibilidade poderia passar a existir legalmente, a depender da interpretação. Caso isso ocorra, a consequência seria a ampliação do escopo regulatório sobre Sistemas Autônomos, IXPs, provedores e até sobre aplicações, com possíveis exigências como licenciamento, taxas, obrigações, metas de universalização e penalidades administrativas.
No campo legislativo, oProjeto de Lei nº 4557/2024propõe uma reestruturação abrangente da governança da Internet no país. Um de seus pontos centrais é a proposta desubordinar o Comitê Gestor da Internet (CGI.br) à Anatel, atribuindo à agência a responsabilidade pelas decisões estratégicas, operacionais e normativas relacionadas à Internet. Embora o projeto reconheça formalmente a existência do CGI.br, ele o reconfigura como um órgão consultivo, sem poder deliberativo, dentro da estrutura da agência. Se aprovado, isso teria impacto direto sobre a atuação do NIC.br e o CGI.br deixaria de ser um espaço de governança multissetorial e passaria a funcionar sob lógica regulatória tradicional.
Essas movimentações não representam apenas um ajuste técnico, mas umreposicionamento institucional mais amplo. Trata-se de repensar o papel do Estado na governança da Internet: se ele deve se dar por meio deregulação unificada e centralizada, ou de formacompartilhada e multissetorial, como tem sido até agora.
Devemos manter e reforçar o que funciona
As propostas de alterar a governança da Internet no Brasil não precisam necessariamente ser vistas como ameaças diretas. No entanto, elas representam uma inflexão significativa: um possívelafastamento de um modelo que tem funcionado, em direção a uma lógica centralizadora com menor participação da sociedade.
Não é coincidência que, sob o modelo atual, o Brasil tenha construído amaior estrutura de interconexão do mundo. O IX.br opera em 38 localidades, conecta mais de 4.200 Sistemas Autônomos, mantém 183 PIX em datacenters parceiros e conta com mais de 1.000 CIX espalhados pelo território nacional. O ponto de troca de tráfego de São Paulo sozinho ultrapassa 25 Tbps,mais do que qualquer outro IXP do mundo.
Esses resultados não ocorreram apesar da governança multissetorial. Eles são consequência direta dela: da autonomia técnica do NIC.br, do financiamento privado baseado no .br, da neutralidade, da descentralização e da ampla participação dos setores da sociedade envolvidos e afetados.
O ecossistema criado em torno do CGI.br, do NIC.br, do IX.br, não beneficia apenas técnicos, provedores de Internet ou aplicações: ele tem impactos diretos na vida do cidadão comum. A expansão dos IXPs e a vitalidade do ecossistema de milhares de provedores regionais, em grande parte viabilizados pela leveza regulatória e pela infraestrutura pública e neutra do IX.br, têm sido determinantes para ainclusão digitalno Brasil, especialmente em regiões antes negligenciadas pelas grandes operadoras. A redução da latência, a melhora na qualidade do acesso, a presença local de conteúdos e serviços, e a competitividade no mercado de banda larga são frutos diretos dessa arquitetura. Além disso, o modelo tem favorecido a interiorização do tráfego, diminuído a dependência de infraestrutura internacional e criado as bases para uma Internet mais acessível, resiliente e soberana.
Substituir esse arranjo por um modelo centrado em uma agência reguladora da área de telecomunicações, historicamente voltada à concessão de espectro, à fiscalização de serviços de voz e à supervisão de contratos, traz riscos. Seria comotentar regular um organismo vivo com as ferramentas de um relógio mecânico: pode até parecer funcional, mas perderia o dinamismo e a adaptabilidade que definem a Internet.
Além disso, há uma preocupação democrática legítima. O CGI.br é composto por representantes de diversos setores, todos com voz e voto. Submetê-lo a uma estrutura hierárquica comprometeriaa pluralidade e a legitimidade do processo de governança.
A Internet brasileira não precisa ser desmontada nem reinventada. Precisa serpreservada e fortalecida, com base no que já se mostrou eficaz. O marco dos40 Tbps do IX.brnão é apenas um dado técnico. É um sinal claro de queo modelo que adotamos funciona. E agora é o momento de defendê-lo com inteligência, responsabilidade e diálogo.
Declaração de responsabilidade (Disclaimer)
As opiniões expressas neste texto são de responsabilidade exclusiva do autor, feitas em caráter pessoal, como cidadão, engenheiro e especialista na área. Elas não representam, necessariamente, a posição oficial de meus empregadores atuais ou anteriores, nem de qualquer instituição ou organização com a qual mantenha vínculo profissional, acadêmico ou institucional. O conteúdo deste artigo é informativo e opinativo, e não deve ser interpretado como manifestação institucional ou orientação jurídica, regulatória ou técnica oficial.
Antonio Marcos Moreiras.
—
(*) PS (23/02/25): De fato, como foi apontado em um comentário da versão em inglês deste artigo, pode não ser totalmente verdade que o IX.br é o maior conjunto de IXPs sob uma mesma gestão. A página pública de estatísticas do Equinix IX —https://ix.equinix.com/home/locations-and-traffic/#traffic— mostra que o tráfego agregado deles já atingiu o pico de 43,5 Tbps. Ou seja, eles superaram o IX.br em termos de tráfego máximo observado. No entanto, se olharmos para os valores de tráfego dos últimos dias, o IX.br parece estar na frente, com uma taxa agregada atual mais alta (o gráfico da Equinix mostra um máximo de 37,2 Tbps). Vale destacar também: o IX.br ainda lidera globalmente no número de sistemas autônomos participantes!
IX.br reaches 40 Tbps, as legislative and regulatory developments prompt reflection on the governance model that enabled its success
A Historic Milestone: IX.br and Brazil at the Top of Global Internet Infrastructure
In April 2025, Brazil reached a remarkable milestone in the landscape of Internet infrastructure:IX.br, the national Internet Exchange Point (IXP) initiative, recorded a peak aggregate traffic of40 terabits per second (Tbps). This figure alone is impressive. However, the most striking fact is thatIX.br São Paulo, on its own, surpassed25 Tbpsof peak traffic.
Daily aggregate traffic of IX.br -22/04/2025
IX.br is not a single exchange point, but rather a distributed system currently comprising38 IXPslocated in various cities across Brazil. This structure directly serves4,255 Autonomous Systems (ASNs), forming the largest interconnection ecosystem in Latin America and, in terms of participant networks, in the world. The network’s physical reach is made possible by183 PIX (Interconnection Points to the IXP)installed in partner data centers, and further extended by over1,000 CIX (Channels to IX), access mechanisms operated by third parties that allow indirect connections through shared infrastructure.
To contextualize this achievement, it is useful to compare it with the world’s leading IXPs:
DE-CIX(Global): In April 2025, the group of IXPs operated by DE-CIX, present in over 50 locations worldwide, reached25 Tbpsof combined peak traffic.
AMS-IX(Amsterdam): The Amsterdam Internet Exchange recently reported a peak traffic of approximately14 Tbps.
LINX(London): The London Internet Exchange shows peak traffic around10 Tbps, based on real-time public statistics.
CABASE(Argentina): The Argentine IXP network reaches a combined peak of approximately4 Tbps.
PIT Chile(Chile): Chile’s main IXP reports peak traffic around15 Tbps.
These numbers clearly position IX.br São Paulo as thelargest Internet Exchange Point in the worldin terms of individual traffic volume. Furthermore, the IX.br project as a whole stands as thelargest IXP system under a single management structure [*], the result of a technical and institutional model that is decentralized, neutral, multisectoral, and widely accessible, topics that will be explored in the sections that follow.
What Is IX.br and Why Does It Work
IX.br — short forBrazil Internet Exchange— is an initiative ofNIC.br(the Brazilian Network Information Center), the executive arm of the Brazilian Internet Steering Committee (CGI.br). It was created to foster direct interconnection between autonomous networks (ASNs), allowing data to flow locally in a more efficient, cost-effective manner, with reduced latency. In practice, IX.br enables content providers, ISPs, enterprises, public institutions, and academia to exchange traffic directly, without depending on international transit or intermediaries.
Its infrastructure is, by design,decentralized. ThePIX (Pontos de Interligação ao IX, or Interconnection Points to the IX)are hosted in partner data centers and house the physical network switches and routers that facilitate participant connectivity. NIC.br manages the technical operation, including hardware deployment, configuration, support, and continuous maintenance. Each IXP can have multiple interconnected PIX within a city or metropolitan region, forming a mesh that allows participants to connect through any PIX and reach all others seamlessly. In São Paulo, for instance, more than 30 PIX are connected via optical fiber, forming a single logical interconnection fabric.
IX.br São Paulo distributed infrastructure (PIX – map)
IX.br São Paulo distributed infrastructure (PIX – logical diagram)
Complementing this model are over1,000 CIX (Channels to IX), access channels operated by third parties such as regional ISPs or local data centers. These allow participants to connect to the IX.br infrastructure indirectly through shared ports, thusdemocratizing accessand enabling even small ISPs to benefit from direct traffic exchange. In commercial IXPs, this model is typically referred to as a“port reseller”arrangement.
The financial model behind IX.br also plays a crucial role. Its operations are largely funded by revenue from the.br domain name registrations, which allows participation to remain free of charge in nearly all locations, except in São Paulo, Rio de Janeiro, and Fortaleza, where a modest port usage fee has been applied since 2017. This cost structure is one of the key reasons why IX.br has attracted over4,000 Autonomous Systems, more than any other IXP worldwide.
Neutrality is another foundational principle. IX.br isnon-profit,not controlled by telecom operators, anddoes not sell IP transit. It simply offers a technical environment where networks can interconnect freely. Peering policies and decisions remain entirely in the hands of each participant. This guarantees neutrality, fairness, and trust among all parties involved.
This model, developed over more than two decades, did not emerge by accident.It is the direct outcome of a governance structure that balances public and private interests, technical expertise and social participation.And it is this very governance that we will explore in the next section.
How Internet Governance Works in Brazil
Internet governance in Brazil is widely regarded as a successful example of themultistakeholder model. This institutional arrangement has been built over the past three decades on the understanding that the Internet is too critical, and too diverse, to be governed by a single sector, whether it be the state, the private sector, or academia. At the heart of this model is theBrazilian Internet Steering Committee (CGI.br), established in 1995 through Interministerial Ordinance No. 147, issued by the Ministry of Communications and the Ministry of Science and Technology.
The CGI.br is composed of21 board members, with balanced representation between government and civil society. Of these,12 seats are held by non-governmental sectors, including business, academia, the technical community, and civil society, while9 are filled by government representativesfrom various public agencies. Decisions are made collectively, preferably by consensus, and meeting minutes and resolutions are publicly available, ensuring legitimacy and transparency.
The CGI.br is responsible for setting strategic guidelines for the development and use of the Internet in Brazil. It also oversees initiatives such asNIC.br, a non-profit organization that serves as its executive and technical body.
NIC.br is responsible for theimplementation of the committee’s policies, managing technical projects such as domain registration under “.br” (viaRegistro.br), the operation of IX.br, IP address allocation (in coordination with LACNIC), Internet quality measurement projects (e.g., SIMET), and promoting the deployment of IPv6, RPKI, DNSSEC, and training initiatives like BCOP and IPv6 courses, among many others.
This governance model has a rare and valuable quality:technical and institutional autonomy combined with social legitimacy. Internet governance in Brazil isnot subordinated to a regulatory agency, a ministry, or any specific commercial entity. Instead, it is based on cooperation among multiple stakeholders, with decisions taken collectively and aimed at the public interest, even when they align with the legitimate interests of various sectors.
The success of IX.br is inseparable from this model. It is precisely because of this governance architecture that IX.br is able to offerfree ports in 35 out of its 38 locations, maintain absolute neutrality in interconnection, and scale its operations without relying on market mechanisms alone. This infrastructure exists in its current form precisely because it was designed and implemented under a governance system that, until now, has resisted external and political interference.
The Brazilian Telecommunications Model and Legal Separation
One of the legal and technical pillars sustaining the Internet in Brazil, and, by extension, the very operation of IX.br and thousands of network providers, is thelegal separation between telecommunications services and value-added services (Serviços de Valor Adicionado, or SVA). This separation is enshrined both in theGeneral Telecommunications Law (Law No. 9.472/1997)and in specific regulatory instruments, such asNorm No. 4/1995, and has been reaffirmed over time by technical and legal opinions issued by Anatel itself, the national telecommunications regulatory agency.
In practice, this means that the Internet is not classified as a telecommunications service, but as a value-added service thatoperates over telecommunications infrastructure. Cables, fiber optics, towers, and transmission links fall under the telecom domain. The Internet, however, refers to the content, protocols, IP addressing, BGP routes, DNS, and services that flow over these physical networks. This distinction is essential, not only from a legal standpoint, but also from technical and economic perspectives.
This separation has allowedthousands of small and medium-sized Internet providersto operate in Brazil without requiring a telecom license, as long as they rely on authorized infrastructure or deploy limited infrastructure of their own. These providers are key players in the massive expansion of IX.br, connecting through CIX, PIX, and regional backbones. More importantly, this legal framework has ensured theregulatory flexibilitynecessary for initiatives like IX.br, OpenCDN, and NTP.br to grow without being stifled by outdated telecom rules.
Meanwhile,telecommunications services, such as telephone networks, broadcast transmission, and physical backbones, are regulated directly byAnatel, an autonomous federal agency responsible for authorizing, supervising, and regulating telecom activities in Brazil.
This division of responsibilities has proven effective for over two decades, allowing the Internet to evolve rapidly, independently, and alongside traditional telecommunications services. Today, however, ongoing political and regulatory developments invite renewed discussion about how this balance should be maintained and adapted for the future.
On one front, Anatel has signaled its intent to revoke Norm No. 4/1995, a foundational regulation that affirms the legal separation between telecommunications services and value-added services, such as Internet access. Although the agency has not explicitly proposed reclassifying the Internet as a telecom service, such an outcome would become legally and politically viable in the absence of that norm. If implemented, this could expose ISPs, IXPs, Autonomous Systems, and even application providers to licensing regimes, regulatory fees, universal service mandates, continuity requirements, and administrative penalties.
On another front, a bill currently under discussion in Congress,Bill No. 4557/2024, seeks to place the Brazilian Internet Steering Committee under Anatel’s direct authority. If enacted, this could radically transform the governance of the Internet in Brazil, shifting from a collaborative, multistakeholder approach to a traditional regulatory hierarchy.
Such changes couldturn the Internet into a regulated telecom service, centralized, slower to adapt, and more vulnerable to political or commercial capture.
What Is at Stake
Discussions around Brazil’s Internet governance model are evolving on two key fronts: one in the legislative sphere, through proposals under debate in the National Congress, and another in the regulatory domain, through initiatives led by the telecommunications agency Anatel. These developments reflect a broader reconsideration of the institutional frameworks that have shaped the Internet in the country.
On the legislative side,Bill No. 4557/2024proposes a sweeping reform of Internet governance in Brazil. Its most controversial provision is thesubordination of the Brazilian Internet Steering Committee (CGI.br) to Anatel, placing the regulatory agency in charge of all strategic, operational, and normative aspects related to the Internet. Although the bill formally recognizes the existence of CGI.br, it redefines the committee as a consultative body with no decision-making power, what could effectively dissolve the multistakeholder model that has characterized Brazilian Internet governance since the 1990s. If passed, this new arrangement could directly affect the operations of NIC.br, and CGI.br would no longer be a deliberative body composed of different sectors, but rather a subordinate unit under unilateral control by a regulatory agency.
At the same time,Anatel has signaled its intent to revoke Norm No. 4/1995, which, as previously mentioned, clearly defines the legal boundary between telecommunications and value-added services such as Internet access and Internet applications and services. Reinterpreting the Internet as a telecom service could allow the agency to subject networks, IXPs, Autonomous Systems, and even online platforms to licensing, obligations, and sanctions typical of the telecom sector.
Importantly, this is not just a technical discussion, but part of a broader reflection on the appropriate role of the state in Internet governance. Brazil’s current model, decentralized, neutral, inclusive, and supported by private funding under a multistakeholder framework, is internationally recognized as a successful example. Considering changes that would bring it closer to a traditional telecommunications regulatory structure invites a careful examination.
We Should Protect and Improve the Model That Already Proven Successful
It is no coincidence that under the current model, Brazil has managed to build thelargest interconnection infrastructure in the world. IX.br is the biggest system of Internet Exchange Points under a single coordination entity, with operations in 38 metropolitan regions, over 4,200 Autonomous Systems, 183 PIX deployed in partner data centers, and more than 1,000 CIX enabling shared access. In São Paulo alone, IX.br hosts thehighest-volume IXP in the world, surpassing the combined peak records of other global networks such as AMS-IX, CABASE, DE-CIX, LINX and PIT Chile.
These achievements did not happen in spite of the current model: they aredirect outcomesof Brazil’s multistakeholder governance framework, the technical autonomy of NIC.br, and the legal separation between Internet services and telecom regulation. Together, they have enabled the emergence of a diverse, competitive, resilient, and technically sophisticated ecosystem.
The Brazilian Internet does not need to be rebuilt. It needs to beprotected and improved within the framework that has already proven successful. That doesn’t mean challenges don’t exist, they do. Expanding connectivity, improving digital inclusion, securing networks, and extending the reach of IXPs are all urgent tasks. Those challenges should be solved through dialogue, investment in community infrastructure, and a deep respect for the collaborative model that Brazil has built, and that the world recognizes.
The40 Tbps peak at IX.bris more than a number. It isproof that we got something right. Now, more than ever, is the time to defend what works.
Disclaimer
The views and opinions expressed in this article are solely my own, made in my personal capacity as a human being, citizen, engineer, and specialist in the field. They do not necessarily reflect the official positions of my current or past employers, nor of any organization with which I am affiliated.
Antonio M. Moreiras.
—
[*]PS: In fact, In fact, asMichał Małyszkopointed out in a comment, this is not entirely true. The Equinix IX public statistics page —https://ix.equinix.com/home/locations-and-traffic/#traffic— shows that their aggregate traffic has already peaked at 43.5 Tbps. So they’ve surpassedIX.brin terms of maximum observed traffic. However, if we look at the traffic values from the past few days (37.21Tbps for Equinix),IX.brappears to be ahead, with a higher current aggregate throughput. Also worth noting:IX.brstill leads globally when it comes to the number of participant networks!
Você já se perguntou como a tecnologia pode ajudar a construir um futuro mais sustentável? No episódio especial do podcast “Camada 8” – produzido em comemoração ao Mês das Mulheres –, a convidada foi aprofessora Tereza, da Universidade de São Paulo (USP). Ela atua na Escola Politécnica e coordena dois projetos fundamentais para o tema: oLaboratório de Sustentabilidade (LASSU)e oCentro de Descarte e Reuso de Resíduos de Informática (CEDIR). Desde 2008, a professora Tereza tem focado suas pesquisas na sustentabilidade aplicada às Tecnologias da Informação (TI), buscando alternativas para melhorar a eficiência energética, otimizar redes e incentivar o descarte responsável de equipamentos.
Durante o bate-papo, a professora Tereza apresentou o conceito decomputação verde, que visa reduzir o impacto ambiental desde a fabricação dos equipamentos – limitando substâncias tóxicas – até seu uso cotidiano, com práticas que diminuem o consumo de energia. Esse esforço pode se traduzir, por exemplo, no uso de roteadores com modo “sleep”, onde componentes inativos ficam em espera, economizando eletricidade sem prejudicar o funcionamento da rede.
Um dos grandes destaques foi oCEDIR, centro que recebe computadores e periféricos descartados pela comunidade, realiza triagens, promove a recuperação dos aparelhos que ainda têm conserto e faz o encaminhamento para a reciclagem segura de componentes irrecuperáveis. Essa iniciativa permite que equipamentos antigos sejam reformados e doados a projetos sociais ou a pessoas que necessitam, reforçando a ideia deresponsabilidade compartilhadaentre fabricantes, vendedores e usuários – cada elo da cadeia tem seu papel na redução do lixo eletrônico.
Outro aspecto relevante no episódio é amétrica PUE (Power Usage Effectiveness), essencial para avaliar a eficiência energética de data centers. À medida que esse índice se aproxima de 1, significa que menos energia é gasta em refrigeração ou infraestrutura de suporte, sobrando mais energia para alimentar efetivamente os servidores. A professora Tereza também mencionou como práticas simples, como escolher roteamentos que usem rotas com menor consumo de energia (roteamento verde), podem gerar economia considerável, sobretudo em ambientes de grande escala.
Além disso, a professora abordou a importância de se considerar amatriz energéticaao desenvolver projetos de TI. Um data center com alta eficiência, porém abastecido por energia de fonte fóssil, continua a ter impacto significativo no meio ambiente. No Brasil, a abundância de hidroelétricas e o crescimento de fontes eólica e solar representam oportunidades valiosas para impulsionar data centers verdadeiramente sustentáveis.
A entrevista também explorou o potencial de tecnologias emergentes, comoIoT (Internet das Coisas), blockchain e inteligência artificial, para viabilizar projetos sustentáveis. A professora Tereza citou exemplos na Amazônia, onde o uso de blockchain e IoT permite rastrear cadeias de produção (como o cacau ou cupuaçu), trazendo transparência, reduzindo o desmatamento e agregando valor aos produtos de comunidades locais.
Outro ponto essencial é opapel social da TI. Por meio doprojeto Paideia, o LASSU oferece cursos de programação em Python para jovens de baixa renda, ampliando oportunidades de emprego e contribuindo para a inclusão digital. A disseminação de conhecimento em TI, atrelada a uma perspectiva de sustentabilidade, pode gerar impacto tanto econômico quanto socioambiental.
Por fim, houve uma reflexão ética sobre arelação entre inovação e sustentabilidade. A professora alertou para o uso excessivo de tecnologia em contextos que não necessariamente trazem benefícios claros, discutindo a importância de equilibrar progresso tecnológico com práticas que poupem recursos e promovam qualidade de vida.
Se você deseja entender melhor essas iniciativas e aprender como a TI pode ser aplicada de forma sustentável, vale muito a pena conferir o episódio completo do “Camada 8”. A conversa com a professora Tereza vai enriquecer seu conhecimento sobre computação verde, descarte eletrônico, métricas de eficiência, soluções inovadoras e as perspectivas para um futuro onde tecnologia e meio ambiente caminham lado a lado. Você encontra o podcast nas principais plataformas de áudio e também no YouTube (no canalNIC.brVídeos).
Ouça o episódio e descubra como pequenas ações podem gerar grandes impactos na construção de uma TI mais responsável e sustentável.
Em12 de fevereiro de 2004, um jornalista do The Guardian publicou um artigo sugerindo um termo novo para uma tecnologia emergente:podcasting. Na época, o iPod ainda era o queridinho dos amantes de música digital, e a combinação das palavras “iPod” e “broadcasting” parecia perfeita para descrever esse novo formato de distribuição de conteúdo em áudio via RSS. O artigo de Ben Hammersley não só cunhou um nome que pegou, como também previu uma revolução na forma como consumimos conteúdo.
O podcasting cresceu exponencialmente. No começo, era um espaço dominado por entusiastas, amadores e produtores independentes, que encontravam na nova tecnologia uma maneira de compartilhar suas vozes com o mundo sem precisar de grandes estruturas de rádio ou televisão. Com o tempo, rádios, jornais e grandes empresas perceberam o potencial do formato, e ele se consolidou como um dos meios mais importantes de consumo de conteúdo no mundo digital. Hoje, os podcasts cobrem todos os temas possíveis, de tecnologia a crimes reais, de comédia a política, de ciência a empreendedorismo. E mais do que isso: eles se tornaram uma companhia diária para milhões de pessoas ao redor do mundo, seja no trânsito, no trabalho ou em casa.
E foi nesse contexto que nasceu oCamada 8, o podcast sobre redes e tecnologia doNIC.br. Desde 2020, ele vem trazendo conversas essenciais sobre infraestrutura da Internet, redes, telecomunicações e governança. O nome é uma brincadeira com o modelo OSI: se as sete camadas da rede são bem definidas, a oitava é aquela em que tudo pode dar errado – a camada humana. Ou seja, o Camada 8 discute a tecnologia e o impacto dela no nosso dia a dia, sempre com um olhar técnico, mas acessível, trazendo especialistas para compartilhar conhecimento e experiências.
O primeiro episódio do Camada 8 foi lançado em maio de 2020, em meio à pandemia do Coronavírus, um período de grandes desafios para a infraestrutura digital. Direcionado para um público inicialmente composto por profissionais de redes, provedores de Internet e engenheiros de telecomunicações, o podcast também alcança estudantes, pesquisadores e entusiastas da área. Ao longo do tempo, foram abordados tópicos que se tornaram referências para a comunidade técnica, incluindo a importância da adoção do IPv6, os desafios do roteamento na Internet, a segurança cibernética e a evolução dos pontos de troca de tráfego (IXPs).
Uma das grandes forças do Camada 8 é a diversidade de seus entrevistados. Desde pioneiros da Internet no Brasil, comoDemi Getschko, Hartmut Glaser, Liane TaroucoeCarlos Afonso, até especialistas de grandes empresas globais como Google, Netflix e Facebook, o podcast tem trazido diferentes perspectivas sobre a operação da rede e seu impacto global. Os episódios também deram espaço para discussões fundamentais sobre privacidade, governança da Internet e a importância da democratização do acesso digital. Além disso, houve momentos históricos, como os episódios comemorativos que marcaram marcos importantes da Internet no Brasil, e entrevistas que revelaram bastidores das principais inovações tecnológicas do setor. Nestes anos, passaram pelo Camada 8 especialistas em redes, segurança cibernética, medições de qualidade, trânsito IP, IPv6, Wi-Fi 7, IXPs e muito mais. Tivemos episódios memoráveis sobre os desafios da conectividade no Brasil, a importância da segurança em redes, o papel dos provedores de Internet na evolução da infraestrutura digital e as inovações que moldam a Internet do futuro.
O podcast se consolidou como um espaço de aprendizado e troca de experiências, com convidados que são referência no setor, proporcionando discussões de altíssimo nível para técnicos, estudantes e entusiastas da área.
Hoje, 12 de fevereiro de 2025, exatos 21 anos após o artigo que cunhou a expressãopodcasting, lançamos mais um episódio:“Recuperação de Desastres”, comLeandro Bertholdo, professor e gerente de redes naUFRGS. Nele conversamos sobre lições aprendidas com as chuvas em Porto Alegre e imediações, no Rio Grande do Sul, em 2024.
Se você ainda não acompanha o Camada 8, essa é a sua chance de conhecer a iniciativa, assinar o podcast e maratonar os episódios anteriores. A tecnologia não para, e aprender sobre redes e infraestrutura nunca foi tão essencial. O conhecimento está disponível e acessível para quem quer se aprofundar e estar sempre atualizado sobre as tendências e desafios do setor.
O primeiro artigo sobrepodcastingtem hoje 21 anos, e os podcasts continuam mais vivos do que nunca. Acompanhe o Camada 8 e fique sempre por dentro dos desafios e inovações da nossa área. Assine, compartilhe e participe dessa conversa. Nos vemos por lá!