Arquivo da tag: Banda Larga

O fracasso do Programa Nacional de Banda Larga

Por Marina Cardoso*

Foi-se o final de ano, o novo-velho governo tomou posse, nomeou ministros e mostrou a que veio. Pois bem. Agora, nesse começo de janeiro, antes de seguirmos em frente, é recomendável parar um minuto para refletir sobre os resultados do Programa Nacional de Banda larga (PNBL), instituído em 2010 pelo Decreto 7.175, cujas metas deveriam ter sido alcançadas até o findado 2014. Para isso, contamos com a ajuda do relatório de avaliação do PNBL feito pela Comissão de Ciência, Tecnologia, Inovação, Comunicação e Informática do Senado Federal. O estudo foi concluído em dezembro e – esperamos que por conta do período de publicação – ganhou pouco espaço na mídia. É, no entanto, bastante elucidativo sobre o retumbante fracasso do Plano. Vale lê-lo atentamente.

Para começar: a meta de domicílios conectados estabelecida para 2014 está muito longe da alcançada. A expectativa era fechar o ano passado com 35 milhões de domicílios com acesso à internet fixa. Porém, em agosto, os acessos à banda larga fixa chegavam a apenas 23,5 milhões de locais, segundo dados do próprio Ministério das Comunicações (Minicom), incluindo aí instalações em estabelecimentos comerciais. Ou seja, há um abismo de mais de 10 milhões de acessos entre a realidade e a meta prevista.

A Consultoria Legislativa (Conleg) do Senado calculou que exista no Brasil um hiato digital em aproximadamente 38,4 milhões de famílias, uma cifra que corresponde a mais de dois terços do total da população. Um dado vergonhoso, especialmente quando se tem em conta que o Brasil é a sétima maior economia do mundo, de acordo com o Banco Mundial.

O pacote de banda larga popular, criado por meio da assinatura de termos de compromisso entre as operadoras e o Minicom, também apresenta resultados pífios. Os últimos dados disponíveis apontam para 2,6 milhões de assinaturas, menos de 1% do total de acessos à internet fixa, sendo metade delas concentrada no estado de São Paulo. É bom lembrar aqui que os dados da banda larga popular do PNBL divulgados pelo Minicom são imprecisos quanto a sua data de coleta (e não mudam há algum tempo), e não incluem informações por região, ou dados de desconexão. Ou seja, também faltam informação e transparência para um melhor balanço da política.

O governo poderia se gabar de poucos aspectos do PNBL, entre eles a cobertura da oferta do plano popular, que, segundo juram as concessionárias, alcançou 4.912 cidades. O difícil é o cidadão conseguir contratar o tal pacote que estaria disponível em quase todos os municípios do País. Diversas reportagens denunciam que empresas escondem tal oferta em suas páginas da internet e que há dificuldade de contratação do plano por meio dos serviços de atendimento telefônico das operadoras – isso sem falar do total desconhecimento da população sobre a existência do plano popular.

O ministério e a Agência Nacional de Telecomunicações (Anatel) fazem vistas grossas. Assim, as operadoras dizem que oferecem o serviço popular, o governo finge que acredita e o nível de conexão no país segue crítico. Pesquisa realizada pelo DataSenado, entre 29 de outubro e 12 de novembro de 2014, mostrou que dois terços dos entrevistados NUNCA havia ouvido falar do PNBL.

Falando de alguma coisa boa, o PNBL teve um importante mérito: o de reativar a Telebras. Infelizmente, porém, a meta traçada era a de disponibilização da Rede Nacional de Internet, gerenciada pela Telebras, em 4.278 municípios até 2015. Só que até agora a estatal amarga míseros 612 municípios conectados, sendo apenas 360 por oferta direta.

De acordo com o relatório do Senado, “a principal razão para o desempenho abaixo do previsto pode ser imputada ao investimento insuficiente nos projetos executados pela Telebras”. O Plano Plurianual de 2012 a 2015 prevê investimentos da ordem de 2,9 bilhões de reais para o PNBL no período de 2012 a 2013. Já as leis orçamentárias anuais nos mesmos anos garantiu apenas 314,7 milhões de reais para o investimento. Com o contingenciamento de recursos, o valor se reduzia ainda mais, para 267,9 milhões de reais. Por fim, a execução orçamentária, de fato, foi de 214,1 milhões de reais, ou seja, 7,4% do previsto no PPA.

Diante de tantos fracassos, há que se perguntar o que aconteceu. Uma possível explicação está no próprio Comitê Gestor do Programa de Inclusão Digital (CGPID), órgão composto por representante de nove ministérios, de duas secretarias e do Gabinete Pessoal do Presidente da República. Compete ao CGPID a gestão e o acompanhamento do PNBL no âmbito do Poder Executivo, cabendo-lhe fixar as ações, metas e prioridades do programa, acompanhar e avaliar suas ações de implementação e publicar anualmente relatório de acompanhamento, demonstrando os resultados obtidos. Acontece que o CGPID não se reúne desde 2010 – ano de criação do PNBL! Não houve, portanto, até agora, relatório algum de acompanhamento do plano.

Uma coisa é certa: não podemos fechar os olhos para o papel central que a internet ocupa hoje na sociedade. Por ela passam, cada vez mais, as relações econômicas, políticas e sociais. No entanto, na prática, apesar do Marco Civil dizer o contrário, o acesso à internet ainda não é considerado um serviço essencial em nosso País. Ao manter dois terços das famílias naquilo que a Consultoria do Senado classificou de hiato digital, optamos, como sociedade, a aprofundar as desigualdades contra as quais viemos lutando bravamente. Estamos enxugando gelo.

Por isso, a sociedade civil, organizada em torno da campanha Banda Larga É Direito Seu, apresentou ao Executivo e à Anatel uma proposta de política pública para garantir a universalização do acesso à internet no Brasil. Seu eixo central é a mudança do regime de operação de rede e de prestação do serviço de acesso à internet no atacado do chamado regime privado para o público. O relatório do Senado endossa essa proposta: “recomenda-se a prestação do serviço de acesso à internet em regime público, a fim de promover a sua universalização”.

Neste início de 2015, a campanha Banda Larga É Um Direito Seu, da qual o Intervozes é membro, inicia a tentativa de abertura de diálogo com o novo governo e demais atores envolvidos, para caminharmos com um plano que seja efetivo. Porque não estamos apenas apontando o dedo. Estamos dispostos a construir os caminhos. Durante a campanha eleitoral, a presidenta Dilma Rousseff se comprometeu a universalizar o acesso à internet no Brasil até o final desta gestão. Esperamos que o fracasso do PNBL sirva, ao menos, para se construir um plano de universalização da banda larga de forma democrática, ouvindo não apenas as empresas, mas a maior interessada: a sociedade.

* Marina Cardoso é jornalista e integrante do Intervozes.

Texto originalmente publicado no Blog do Intervozes na Carta Capital.

Regras entram em vigor, mas medição das conexões segue capenga

Ao menos em tese, os brasileiros que acessam a Internet devem começar a perceber melhorias nas conexões. Entrou em vigor nesta quinta-feira, 01/11, o regulamento da Anatel que determina que a velocidade de acesso não pode ser inferior, em média, a 60% da que foi contratada.

Mas há problemas. No momento em que esse texto é escrito, no entanto, as operadoras não cumprem um dos princípios da regra – os percentuais valem tanto para as velocidades de download quanto upload. Testes com o programa escolhido como oficial (Speedtest) mostram que o upload continua na casa dos 10% do prometido.

Esse, no entanto, é apenas um dos problemas com o sistema de medição desenvolvido em conjunto pela Anatel e as operadoras. Ou melhor, com a “tropicalização” da metodologia desenvolvida pela empresa inglesa SamKnows, escolhida como braço técnico da chamada Entidade Aferidora da Qualidade (o braço executivo é da consultoria, também britânica, PwC).

A resolução 574 da agência, de 28/10/2011, prevê que os consumidores poderão medir por si mesmos as velocidades com base no software escolhido. Anatel, teles e EAQ preferiram utilizar um programa já existente, o americano Speedtest. Mas a medição oficial, ou seja, aquela que servirá como base de potenciais ações da agência, deve ser feita de forma remota.

É aí que entra a “tropicalização” do sistema. Contratada pelas teles, a SamKnows trouxe para o Brasil o modelo que adotou na Inglaterra e nos Estados Unidos. Nesses países, no entanto, não existe regulamento que trate de parâmetros mínimos de rede – as medições são meros balizadores para dar transparência às ofertas do mercado.

Assim como nos outros países onde foi adotada, esse sistema é feito com base em uma amostragem – foram 3 mil equipamentos na Inglaterra, 10 mil nos Estados Unidos. No caso brasileiro, optou-se por uma distribuição estatística de equipamentos de medição, como forma de representar fielmente o cenário das conexões brasileiras, por região, perfil de velocidades, etc.

Foi por isso, segundo explicaram Anatel e EAQ, que se chegou ao número de 12.091 equipamentos a serem instalados nas residências dos clientes. Esse número, no entanto, não vale mais. Como explicou o superintendente de Serviços Privados da agência, Bruno Ramos, para as medições das conexões móveis os equipamentos que vão verificar os acessos 3G foram descontados do total de fixos.

Nem a Anatel, nem a EAQ souberam dizer, nesta quinta-feira, 1o/11, quantos equipamentos de medição foram distribuídos aos voluntários que se inscreveram no programa de medição da qualidade. É certo, porém, que apesar do prazo ter vencido ontem, há voluntários que ainda não receberam as caixinhas, batizadas de “whitebox” pela SamKnows.

As pendências para medir as conexões fixas, no entanto, nem se comparam aos problemas da medição dos acessos móveis. Embora ambas devessem começar juntas, a Anatel reconhece que ainda está sendo desenvolvido um sistema para verificar as condições de acessos com mobilidade. Um modelo está sendo testado com 137 medidores no estado do Rio de Janeiro.

A ideia, segundo a agência, é espalhar 3,8 mil equipamentos até junho de 2013. Mas, ressalte-se, são equipamentos fixos que simulam o uso de conexões sem fio. A Anatel também promete que até o fim deste mês, os usuários de banda larga móvel poderão medir a qualidade do serviço em seus computadores ou smartphones a partir de um programa, similar ao Speedtest, a ser disponibilizado.

Um ano, portanto, não foi suficiente para que o sistema de medição da qualidade estivesse pronto. Curiosamente, o NIC.br – braço operacional do Comitê Gestor da Internet brasileira – que foi descartado pela Anatel e pelas teles como responsável pelas medições, tem programas de medições móveis prontos desde maio (para iOs) e julho (Android) deste ano.

O NIC.br, por sinal, contestou a escolha dos britânicos para serem os aferidores da qualidade. Mas apesar de ter apresentado um recurso à Anatel em abril, o tempo passou, o prazo da medição começou e até agora não existe uma posição formal do regulador sobre o processo.

Anatel improvisa medição móvel e afeta acessos fixos

Falta uma semana para começar o sistema de medição da qualidade das conexões à Internet que será usado pela Anatel como parâmetro na regulação dos serviços das operadoras. Mas ainda sobram problemas na adaptação do modelo a ser adotado no Brasil, a partir do sistema desenvolvido pela empresa responsável – uma parceria das britânicas PwC e SamKnows.

Em essência, não existe um sistema para medir as conexões móveis. A partir de 31/10, quando começam as medições conforme previsto em regulamento da Anatel, será adotada uma saída, que fará testes nas conexões sem fio, mas somente de forma estacionária.

“A posição da Anatel é de que tem que ter a medição com mobilidade, mas não existe uma solução”, diz o superintendente de Serviços Privados da agência, Bruno Ramos, que coordena o grupo de implementação do programa de medição da qualidade (Gipaq).

Uma reunião do Gipaq nesta quarta-feira, 24/10, decidiu que os acessos móveis serão verificados com a instalação de equipamentos (probes) em diversos pontos do país. Mas eles atuarão como usuários, medindo hipotéticas conexões sem fio. E estarão fixos.

A ideia é instalar cerca de 5 mil desses equipamentos no país voltados à medição móvel. E é aí que o problema transborda para a medição dos acessos fixos – pois esses equipamentos serão “descontados” do total previsto para a medição das conexões fixas.

Inicialmente, a Anatel e a Entidade Aferidora da Qualidade (gerida por uma associação da PwC com a SamKnows) divulgaram uma campanha para alcançar cerca de 12 mil voluntários que receberiam equipamentos domésticos para medir a qualidade das conexões fixas. Agora devem ser 6 mil.

“Serão cerca de 6 mil probes para acessos fixos e uns 4,5 mil, 5 mil, para móveis”, admite o superintendente Bruno Ramos. Acontece que, segundo explicaram Anatel e EAQ, os 12.091 voluntários não surgiram de um número aleatório, mas era o necessário para cobrir, estatisticamente, os diferentes perfis de usuários.

A inexistência de um sistema para verificar as conexões móveis já fora uma questão levantada desde o início do processo de seleção e modelagem da medição prevista em regulamento. Segundo Ramos, o sistema operacional de um smartphone ou mesmo o nível da bateria influenciam no resultado.

“Vamos, talvez a partir de dezembro ou janeiro, iniciar testes tendo em vista dois modelos possíveis. Um com a instalação dos equipamentos em unidades móveis. O outro seria um software para smartphones, que permitiria a qualquer um fazer testes em qualquer lugar”, explica o superintendente.

O primeiro modelo é semelhante à solução provisória, no qual equipamentos simulam usuários, com a diferença de que, ao invés de fixos, seriam instalados em carros – está em negociação o uso dos veículos dos Correios, visto que possibilitariam medições em rotas aleatórias.

PNBL tem 1 milhão de usuários e preocupa

O número total de assinantes do Plano Nacional de Banda Larga (PNBL), segundo dados da Anatel, chegou a 934.182 no segundo trimestre de 2012, alta de 32,7% em relação ao acumulado no trimestre anterior, mas pequeno diante do esperado para o projeto que baixou o preço da banda larga fixa para R$ 35,00 (com ICMS) ou R$ 29,90 (sem ICMS). Se, nos últimos doze meses, foram registrados 32 milhões de novos acessos à banda larga móvel e fixa, totalizando 81 milhões, o número total do PNBL não chega nem à metade da média das novas adições (2,6 milhões) registradas por mês no país.

Ainda mais preocupante é que o número total de vendas no trimestre (313.114) caiu 17,6% na comparação com o primeiro trimestre de 2012 e 21,1% na comparação com o 4T11, passando de 397.071 no 4T11 para 313.114 no 2T12. O número de desligamentos também aumentou do primeiro para o segundo trimestre do ano. Apenas no 2T12 foram feitos 83.042 desligamentos, ante os 75.301 do trimestre diretamente anterior.

Apesar de o PNBL ter como objetivo levar a internet para as regiões mais pobres, notadamente fora do eixo Rio-São Paulo, quase 85,7% dos clientes do PNBL se concentram na região Sudeste. Apenas 2,24% estão na região Norte, 6,78% no Nordeste, 1,05% no Centro-Oeste e 4,23% na região Sul.

Do primeiro trimestre para o segundo, no entanto, houve razoável ampliação da participação dessas regiões no total de clientes do PNBL. O Nordeste, que representava 4,9% do total, teve sua participação no total elevada para 6,7%, o Norte passou de 0,8% para 2,2%. (Publicado no Tele.Síntese Análise nº 358).

Especialistas discordam do conceito de neutralidade de rede e do papel do CGI

O Marco Civil da Internet, que deverá ser aprovado em comissão especial neste segundo semestre, ainda causa protestos de alguns especialistas do setor. O advogado Pedro Dutra e o professor da Fundação Getúlio Vargas Artur Barrinouevo discordam do conceito de neutralidade de rede da proposta e do papel atribuído ao CGI. A discussão aconteceu durante a ABTA 2012, com a presença do relator da matéria, Alessandro Molon (PT/RJ)

Para Barrinouevo, o Marco Civil falha ao não permitir que as teles possam fazer um gerenciamento “inteligente” das redes e, assim, impedir que haja problemas de congestionamento. “Seria importante que o nosso projeto deixasse claro as formas de gerenciamento de rede aceitáveis”, afirma ele.

Para o professor, ao permitir que os provedores tenham a capacidade de criar planos com preços diferenciados, cria-se um ambiente propício para o surgimento de novos provedores. Além disso, para ele, restringir os provedores a uma qualidade única resultará na redução da qualidade média das redes e desestimulará o investimento nesta infraestrutura.

Já o advogado Pedro Dutra discorda do fato de que as exceções prevista à neutralidade sejam regulamentadas por decreto. “O decreto vai engessar a regulação e vai engessar a Internet”, afirma ele. Outro ponto criticado pelo advogado foi o fato de o CGI ficar responsável por criar as recomendações segundo as quais serão definidas exceções à neutralidade. Essa tarefa, na opinião dele, deveria ficar a cargo da Anatel, uma vez que o CGI é um órgão consultivo, que não tem competência regulatória. “Esse equívoco vai gerar inúmeras preocupações e eventuais contestações”, afirma.

Para ele, essa competência deveria ser dada à Anatel que “tem a estrutura formal de órgão de intervenção do Estado na economia”. Para o advogado, a atribuição do CGI pode também ferir a competência do Cade em decidir sobre concorrência. “Quando o CGI recomenda o que é aceitável ou não, ele está decidindo o que é concorrencialmente aceitável ou não”, argumenta.

O deputado Alessandro Molon considera que essa questão foi superada. O relatório preliminar dizia que o decreto deveria “respeitar” as recomendações do CGI. Na versão final, Molon trocou o verbo por “ouvir”. Assim, para o deputado, não existe mais o “caráter vinculativo” das recomendações do CGI ao decreto. “A presidência vai ouvir quem ela achar que deve, inclusive o CGI”, diz ele.