Arquivo da categoria: Notícias

Dados pessoais que trafegam na internet são ‘o novo petróleo’

Quanto vale saber quem será o próximo presidente dos Estados Unidos ou que time de futebol tem mais possibilidade de ganhar a Liga dos Campeões? De acordo com reportagem publicada pela BBC, especialistas assinalam que os dados que circulam na internet com a computação em nuvem, as redes sociais, os correios eletrônicos, uso de smartphones ou de sistemas de geolocalização, formam uma extensão de nosso próprio cérebro, de nossa alma e, em seu conjunto, uma intelgência coletiva digital. Agora pense em como nós, em nível individual, lidamos com estes dados para realizar predições e tomar decisões no dia a dia. Quanto poder teria quem pudesse fazer o mesmo com a internet aplicada ao mundo político, financeiro, bélico e, porque não, pessoal? Por conta disso, uma frase soa com insistência pelos corredores do Vale do Silício: os dados pessoais são o novo petróleo.

A reportagem cita o dado de que a cada dia são gerados 2,5 quintilhões de bytes de informação – segundo a IBM – no mundo, fluxo que só cresce na medida em que nossa realidade se povoa de objetos inteligentes. Nunca na história da humanidade houve registro de tanta informação e com tanto potencial para ser usada na construção de um mundo mais previsível e, consequentemente, menos volátil. É por isso que, exemplifica a BBC, a Agência Nacional de Segurança dos Estados Unidos está envolvida na construção de um gigantesco centro de processamento de dados da internet em pleno deserto de Utah.

Citado na reportagem, o diretor de pesquisas da Telefônica Digital, Pablo Rodríguez, disse num fórum de comunicação em Madri que atualmente "somos como insetor que deixam seus feromônios pelo caminho" e assim como essas criaturas, esta informação nos ajuda cada vez mais a nos conectarmos e nos coordenarmos. Para Rodriguz, 90% desses dados ninguém vê hoje, mas em 2030 a internet vai ser capaz de transportar toda a informação que os humanos captam através de seus sentidos, informação que será usada pelas máquinas, robôs e sensores que serão nosso cérebro ampliado".

O que especialistas destacam é que muitos usuários não perceberam ainda essa realidade e não têm consciência do quanto valem seus dados. Por isso, dizem, a internet estaria funcionando com uma estrutura feudal: os usuários geram riqueza em troca do uso da "terra" da internet, enquanto os monarcas (como Facebook, Google ou Microsoft) repartem o butim.

"Não há nada grátis na internet. O que muita gente não sabe é que dar seus dados em páginas web é dar dinheiro", diz Ignacio Suárez, advogado especializado em direito da internet e proteção de dados citado pela BBC. "As pessoas teriam que estar preocupadas, os jovens, por exemplo, não sabem até que ponto estão jogando com seus dados, que é possível que eles sejam manipulados por empresas de outros continentes a quem não importa a proteção desses dados".

Mas, afinal, quanto valem nossos dados? De acordo com emarketer, webpronews e o blog de tecnologia Tech Crunch, o Facebook teria lucrado, apenas com publicidade, mais de US$ 1,8 bi em 2010, liderando uma lista em que vêm a seguir YouTube, MySpace, LinkedIn e Twitter. Entretanto, nesta espécie de "Oeste selvagem", já começam a aparecer iniciativas para restabelecer a ordem e devolver aos usuários uma certa soberania sobre sua vida digital. No início deste ano, a Comissão Europeia propôs uma reforma legal para proteger com mais eficiência os dados pessoais dos usuários e garantir essa proteção independentemente de onde eles estejam armazenados. Os usuários, amparados pelo "direito ao esquecimento", poderão solicitar seus dados e as companhias terão que informar claramento sobre o que está em jogo em seus termos e condições de uso.

Neste cenário, diz Rodrigues, se os usuários retomam o controle de seus dados e sabem gerenciá-los, "as possibilidades são enormes"."Poderemos desenvolver aplicações que nos permitam entender qual é nosso potencial de crescimento". Ou seja, poderíamos doar nossos dados, por exemplo, para projetos científicas que tentem descobrir curas ou predizer, por exemplo, o desenvolvimento de um câncer, ou saber o que podemos fazer para otimizar nossos gastos e chegar mais folgados ao fim do mês. Mas, destaca a reportagem, para aproveitar todos este petróleo de dados, fazem falta muitas refinarias: supercomputadores para conhecer o significado dos quintilhões de dados que circulam todo dia pelas vias da internet, ou aplicações que permitam adaptar esta tecnologia às nossas necessidades.

CPqD amplia leque de aplicativos com Ginga

Impulsionar o mercado de aplicativo, com uso do Ginga, o middleware de interatividade para TV digital, é o objetivo do CPqD, ao disponibilizar três novas aplicações, com os respectivos códigos e manuais, para desenvolvedores.

"O mercado de desenvolvimento para TV digital está, de fato, muito confuso. E queremos acelerar o processo com essas soluções", revela José Orfeu, responsável pelo projeto de TV digital no CPqD, em entrevista ao Convergência Digital.

Há um mês, houve a disponibilização da primeira parte do projeto nacional. O CpQD disponibilizou o serviço PrevidênciaFácil (com informações sobre aposentadoria), a biblioteca de componentes de software em Ginga e a ferramenta de autoria.

Juntos, eles tiveram mais de 400 downloads, no período de menos de um mês. "Esse resultado foi bem bom para nós porque sabemos que quem baixou foi porque está interessado em estudar, em aprender a mexer com o Ginga", destaca Orfeu. A partir desta segunda-feira, 13/04, três novas aplicações foram adicionadas, todas com os respectivos códigos e manuais. São eles:

– ProcuraEmprego: Facilita a busca de vagas de emprego no país. Por meio de um mapa, o usuário pode navegar pelas várias regiões e estados brasileiros até chegar a uma lista de profissões com vagas disponíveis.
Notícias – Serviço que permite exibir na tela da TV digital interativa as últimas notícias, divididas por assuntos como economia, mundo, música, política, tecnologia, etc.

– Clima: Permite oferecer informações sobre o tempo e as temperaturas (máxima e mínima) de uma cidade previamente selecionada.

Além delas, também já está disponível a parte servidor (backoffice) do sistema que gerencia as aplicações interativas. Desenvolvido com base em arquitetura cliente-servidor orientada a serviços, esse sistema permite que uma aplicação seja executada em diferentes plataformas de TV – e, ainda, em diferentes terminais de acesso.

Para baixar as aplicações, os interessados podem entrar nos sites do CPqD (www.cpqd.com.br) ou do Ministério das Comunicações (www.mc.gov.br). Na terceira fase do seu cronograma, programada para 15 de maio, o CPqD tornará disponíveis para download as demais aplicações e serviços para plataforma Ginga desenvolvidos no âmbito do projeto SMTVI.

O mercado brasileiro é o grande alvo – especialmente, a TV pública, como ferramenta de disseminação dos aplicativos interativos da TV digital, mas o mercado latino-americano está na mira. "Precisamos cuidar da harmonização do uso do Ginga. Aqui no Brasil, temos que usar Ginga NcL e Ginga J (java). E queremos levar isso para todos os países que adotaram o ISDB-T como padrão para TV digital", afirma José Orfeu.

Grupo português Ongoing fecha a compra do portal iG

O grupo português Ongoing, que edita os jornais "Brasil Econômico" e "O Dia", fechou a compra do portal iG, que pertence à Oi.

A Folha apurou que faltam detalhes para que o negócio seja formalizado em um contrato, que deve ser assinado amanhã. Os valores não foram revelados.

Três grupos chegaram a analisar a compra do iG. Primeiro foi a divisão de internet da RBS, no início deste ano. As conversas não prosperaram por dois motivos: o valor era alto demais e o perfil dos visitantes do portal não se alinhava com a estratégia da RBS na internet.

Após a desistência da RBS, os portugueses seguiram sozinhos até que o banqueiro André Esteves, dono do BTG Pactual, também se apresentou interessado na compra. O valor pedido pela Oi também foi um impeditivo.

A Folha apurou que, embora a proposta dos portugueses contemple um prazo maior para o pagamento, eles aceitaram as cifras pedidas.

Segundo o Ibope, o iG é o quinto maior portal do país em número de visitantes. Em março, foram 23,48 milhões de visitantes únicos.

Está atrás do R7 (da Rede Record), que teve 23,571 milhões de visitantes únicos; do Terra (da Telefônica), com 29,508 milhões de visitantes; da Globo.com (das Organizações Globo), com 29,619 milhões de visitantes e do UOL, empresa controlada pelo Grupo Folha, que edita a Folha, que é líder com 34,324 milhões de visitantes.

Antecedentes

A Oi não tinha pressa em vender seu portal e, por isso, não abriu mão dos valores. A companhia decidiu vender o iG desde que o novo presidente da operadora, Francisco Valim, assumiu o comando, em agosto do ano passado.

Com o desafio de melhorar o desempenho financeiro da companhia e recuperar a capacidade de investimento, Valim tinha a missão delegada pelos controladores da Oi de focar na operação de infraestrutura (acessos à telefonia, internet e TV paga).

Embora estivessem presentes na internet, os controladores da Oi nunca acharam que esse era um negócio do grupo. Por isso, decidiram abrir mão do iG.

A decisão ganhou força especialmente após a aquisição da Brasil Telecom, em janeiro de 2009, que fez explodir o grau de endividamento da Oi a ponto de comprometer seus planos de investimento.

No ano passado, o endividamento da companhia foi reduzido pela metade com a entrada da PT (Portugal Telecom) no bloco de controle, um acordo fechado em julho de 2011.

Com a chegada dos portugueses, o foco passou para os negócios na rede de dados (basicamente internet e TV), algo que, em Portugal, elevou a rentabilidade da PT.

Antes de atuar diretamente no Brasil, o Ongoing tinha presença no país por meio de sociedade em empresas como a Vivo e a própria Portugal Telecom.

4G no Brasil será feito às pressas, dizem analistas

A Agência Nacional de Telecomunicações (Anatel) definiu ontem (12) as regras para o edital de licitação das frequências para instalação da rede 4G no Brasil. No entanto, as determinações vêm gerando críticas entre as empresas e analistas.

De acordo com as novas regras, os vencedores deverão atender todas as seis cidades que receberão os jogos da Copa das Confederações até abril do ano que vem. Além das sedes e subsedes da Copa do Mundo de 2014 até dezembro de 2013.

As principais operadoras do país afirmam que o curto prazo estabelecido pela Anatel poderá reduzir os custos dos investimentos em outras áreas, incluindo o 3G e não garantirá uma infraestrutura pronta para todos esses eventos.

“A Copa das Confederações será a prova de fogo para as empresas. Será um longo período ainda até assinar o contrato para dar início à implementação da infraestrutura, o que só deve acontecer em outubro se a licitação ocorrer de fato em junho. É preciso pagar tudo antes ao governo e são processos que demoram. São coisas que normalmente demorariam de 12 a 18 meses e o prazo aqui será de 6 meses somente”, afirma Erasmo Rojas, diretor da 4G Americas para America Latina e Caribe.

Outro problema é a falta de compatibilidade dos atuais aparelhos existentes no mercado com a frequência da tecnologia que será utilizada no país por meio da faixa de 2,5 GHz.

Segundo dados da consultoria Teleco, atualmente no Brasil ainda não existe nenhum modelo de celular compatível com esta frequência. Quando considerado dados mundiais, há 94 tipos de aparelhos que funcionariam no país. Além disso, a empresa acredita que existe a possibilidade de não haver uma conectividade 4G efetiva no país durante a Copa de 2014.

“Isso [cobertura 4G na Copa] é mais uma questão de marketing do governo e não fará muita diferença. Para a Copa o problema é muita gente de fora concentrada em um só local, e será preciso aumentar a capacidade de voz e dados. Para isso as operadoras vão ter de implantar recursos como Wi-Fi e HSPA+”, afirma Eduardo Tude, presidente da consultoria Teleco.

Além disso, turistas oriundos dos Estados Unidos não conseguirão utilizar a rede 4G brasileira devido à incompatibilidade com seus aparelhos. Já os europeus terão mais oportunidades para usar nossa rede, mas como ainda a oferta de dispositivos LTE na região é reduzida é capaz de durante a Copa do Mundo não haver muito uso desse tipo de conexão.

Outra reclamação diz respeito à obrigatoriedade das operadoras em investir na faixa de 450 MHz para levar internet banda larga a zona rural. Pelas regras, a Anatel irá primeiro leiloar as faixas de 450 MHz e assim, se não houver interessados, elas serão juntadas ao leilão da faixa de 2,5 GHz e as operadoras que vencerem a licitação da telefonia de 4G deverão cumprir as metas propostas para a zona rural.

“Essa determinação da Anatel segue o mesmo princípio de alguém que vai à uma loja comprar um carro, mas é obrigado a comprar uma bicicleta para fechar o negócio”, diz Rojas.

“O ponto principal ainda não conhecemos, que é o preço mínimo. Se for descontado o 450MHz pode até ficar razoável. Mas do meu ponto de vista não colocaria esse peso no 450MHz, pois qualquer obrigação a mais para as operadoras no fim quem vai pagar a conta é o usuário. Então o ideal para o serviço fluir seria não colocar essa pressa para eventos e o ônus do 450MHz”, completou Tude.

O ideal para o Brasil, segundo os analistas, seria o uso da faixa de 700 MHz para o 4G, pois é a mesma frequência utilizada por diversos países, incluindo os Estados Unidos, e a que oferece a maior amplitude de sinal (especialmente em estradas e lugares fechados). Segundo dados, uma rede 2,5 GHz exigiria até três vezes mais a quantidade de antenas do que uma rede de 700 MHz.

No entanto, a faixa de 700 MHz atualmente é utilizada para a transmissão do sinal de TV analógico e pela previsão do governo a frequência somente será liberada em 2016, quando se encerra o prazo dado para a convergência do sinal para TV digital.

Além disso, os analistas acreditam que a abertura para a entrada de empresas estrangeiras na licitação não trará novas operadoras ao setor. Isto porque o prazo estabelecido pela Anatel é muito curto e será bastante oneroso para ser cumprido, o que não torna o mercado atrativo para empresas que não conhecem o mercado brasileiro.

A definição final dos preços mínimos das outorgas do leilão de 4G ainda depende de avaliação do Tribunal de Contas da União (TCU). Nessa disputa, vencerá quem oferecer a maior outorga ao governo. No caso do leilão de 450 MHz para área rural, o critério será o do menor preço para o usuário.

Determinações

Pelas regras, todas as capitais do Brasil e municípios com mais de 500 mil habitantes terão de receber a nova tecnologia até dezembro de 2014.

As cidades com mais de 200 mil habitantes receberão o 4G até dezembro de 2015 e as com mais de 100 mil habitantes, até dezembro de 2016. Em dezembro de 2017, as demais cidades com até 100 mil habitantes também receberão a tecnologia 4G.

O edital estabelece ainda cotas mínimas de conteúdo nacional nos investimentos em aquisição de bens e produtos pelos operadores.

As cotas aumentarão gradativamente, passando de 60% de 2012 a 2014 para 70% de 2017 a 2022.

Segundo a Anatel, o edital deve ser publicado na semana de 22 de abril. O leilão, por sua vez, deve ocorrer por volta de 11 de junho.

A transmissão distribuída: “Meu objetivo é extinguir a televisão”

O BitTorrent Live funciona exatamente ao contrário da forma como funcionavam, até agora, as transmissões ao vivo: quanto mais pessoas estão conectadas a um mesmo serviço, mais veloz pode ser a conexão. Impressionante. Este simples conceito poderia revolucionar várias coisas ao mesmo tempo: “Meu objetivo é extinguir a televisão”, disse Bram Cohen, em fevereiro, um pouco sério e um pouco em tom de brincadeira. Também permitirá realizar transmissões, ao vivo, sem grande infraestrutura. É que mais de 40% da circulação mundial usa o protocolo BitTorrent, que o próprio Cohen inventou, há pouco mais de uma década, quando revolucionou a forma de compartilhar arquivos. Agora, ele vem com um serviço de “transmissão”, em linha, que é conceitualmente fabuloso, num momento em que as águas da circulação de informação na Internet estão “quentes”.

A pressão internacional do FBI e de outras administrações para que se retire de circulação os sítios de downloads diretos, como MegaUpload ou os distribuídos como The Pirate Bay, foi visto como uma vitória das empresas defensoras da “propriedade intelectual”. Porém, como se sabe, entre MegaUpload e The Pirate Bay existe uma diferença estrutural: o sítio criado por Kim Doctom permitia realizar downloads diretos (de um só servidor) e isto agilizava as transmissões em tempo real, sem necessidade de baixar o arquivo previamente. A velocidade era consideravelmente boa, mas, também, era simples o rastreamento da fonte: uma vez descoberto o arquivo era fácil rastreá-lo e pedir que fosse dado baixa. The Pirate Bay, ao contrário, era (é) um buscador de arquivos que estão alojados de forma distribuída, por meio deste protocolo chamado BitTorrent. Os arquivos não estão “dentro” do The Pirate Bay, este só funciona como um índice. Estas fontes estão distribuídas por todo o planeta: uma vez plantada a semente, cada pessoa que se conecta, não somente está baixando o material, mas também compartilhando o material baixado com os demais.

Esta forma de comunicação inventada por Bram Cohen, chamado BitTorrent, é a versão mais difundida do protocolo peer-to-peer, ou par a par ou p2p. Não é novidade para ninguém: BitTorrent foi inicialmente planejado por Cohen no CodeCon, em 2001, e em 2002 juntou um pouco de pornografia grátis, para testar seu programa. Esse protocolo foi desenvolvido, inicialmente, para uma empresa de segurança, que tinha que distribuir seus arquivos de forma criptografada, de maneira tal que não se poderia destruir as cópias de segurança e, ao mesmo tempo, fosse impossível conhecer o conteúdo dos mesmos. Atualmente, BitTorrent tem 150 milhões de usuários ativos, com maior permanência que o Facebook ou YouTube.

Desde seu nascimento, as produtoras de Hollywood e dos selos discográficos pressionam aos provedores de Internet para que desacelerem as comunicações realizadas por meio deste protocolo. Na Argentina, todos os provedores tendem a isso, diminuindo a largura de banda dedicada, afetando o conceito de neutralidade da Internet, onde cada “pacote” de comunicação deveria ser considerado da mesma maneira. O que Bram Cohen apresentou, há algumas semanas, sob o nome de BT Live poderia revolucionar os consumos culturais, por meio da Internet: usa fontes distribuídas, porém, não para “baixar” arquivos, mas para transmitir conteúdo, o que se conhece no inglês como “streaming”. No último dia 20 de janeiro, foi transmitido pela primeira vez, para todo o público, um concerto de Dean Guitars (fabricantes de instrumentos musicais) dentro das conferências de NAMM, cuja fonte não era uma só, mas estava distribuída em dezenas de computadores ao redor do planeta.

Para que este protocolo funcione corretamente, Cohen teve que escrevê-lo praticamente de novo, já que a versão existente de BitTorrent tinha problemas de latência, ou seja, o tempo que demora o envio e recepção dos dados. Segundo a declaração de Bram Cohen, em seu blog oficial, o objetivo de BT Live é “eliminar um problema fundamental dos serviços de transmissão, em tempo real (streaming), na Internet, eliminando a necessidade de ter servidores custosos com a infraestrutura e reduzindo consideravelmente as demoras nas transmissões”. O objetivo do acontecimento era experimentar o protocolo que – segundo Cohen – funcionou, incrivelmente, de maneira estável e precisava ser provado de forma massiva. “O streaming ao vivo, do BitTorrent, trabalha com um modelo de distribuição entre aqueles que estão vendo a transmissão. Ou seja, a arquitetura de peer-to-peer aproveita dos recursos de cada usuário, de cada computador, de cada rede e quanto mais gente se soma a uma transmissão, melhora ainda mais a velocidade da mesma”, disse Cohen. BT Live está testando o protocolo, durante semanas, na página oficial live.bittorrent.com, para o qual é necessário instalar o programa de BitTorrent, e um aplicativo que se baixa de sua web. Talvez, o lado mais fraco de BT Live é que quando há poucas pessoas assistindo, a velocidade é menor. Porém, o espírito do protocolo permite que seja mais fácil exibir uma transmissão “direta” para menos pessoas.

Do ponto de vista tecnológico, a proposta de Bram Cohen bane rupturas: até agora se supunha que para “garantir” uma maior demanda de uma transmissão, seria necessário ter maior infraestrutura. BT Live irá mudar essa lógica (sempre e quando o deixar, os provedores de serviço, e não filtrem o protocolo): quanto maior for a demanda de um serviço, maior será também a velocidade de transmissão. Essa lógica, agora, está pensada para as transmissões ao vivo, porém, não demorará muito para que alguém comece a usá-la na visualização de qualquer tido de conteúdo cultural. O grande desafio de Cohen é fazer a indústria compreender que BT Live não é um inimigo, mas um aliado do investimento. Do ponto de vista filosófico, pretende-se recuperar os pilares de uma Internet livre, distribuída e neutra.

Tradução: Cepat – Centro de Pesquisa e Apoio aos Trabalhadores