Quando a internet acha que nos conhece

Os gigantes estão correndo para oferecer filtros especializados que nos mostram a rede que acham que devemos ver, controlando e limitando a informação que chega a nossa tela

Eli Pariser, The New York Times, O Estado de S.Paulo

24 de maio de 2011 | 00h00

Era uma vez, reza a história, uma época em que vivíamos numa sociedade radiodifundida. Naqueles tempos ancestrais pré-internet, as ferramentas para compartilhar informação não eram amplamente disponíveis. Quem quisesse partilhar seus pensamentos com as massas, tinha de possuir uma impressora ou um naco das ondas aéreas, ou ter acesso a alguém que o tivesse. No controle do fluxo de informação estava uma classe de elite de editores, produtores e magnatas da mídia que decidia o que as pessoas veriam e ouviriam sobre o mundo. Eles eram os "guardiães".

Aí veio a internet, que tornou possível a comunicação com milhões de pessoas com pouco ou nenhum custo. De repente, alguém com uma conexão de internet podia partilhar ideias com o mundo inteiro. Uma nova era de mídia noticiosa democratizada despontou.

O leitor pode ter ouvido essa história antes - talvez do blogueiro conservador Glenn Reynolds (blogar é "tecnologia solapando os "guardiães"") ou o blogueiro progressista Markos Moulitsas (seu livro se intitula Crashing the Gate, "Esmagando o portal", em tradução livre).

É uma bela história sobre o poder revolucionário do meio e, na qualidade de um antigo praticante da política online, eu a contei para descrever o que fizemos na MoveOn.org. Mas estou cada vez mais convencido de que escolhemos a conclusão errada - talvez perigosamente errada. Há um novo grupo de "guardiães" por aí e, desta vez, eles não são pessoas, são códigos.

Os gigantes de internet de hoje - Google, Facebook, Yahoo e Microsoft - veem o crescimento notável de informações disponíveis como uma oportunidade. Se puderem oferecer serviços que vasculhem esses dados e nos forneçam os resultados pessoalmente mais relevantes e atraentes, eles conseguirão a maioria dos usuários e a maioria das visitas a anúncios. Por conseguinte, eles estão correndo para oferecer filtros especializados que nos mostram a internet que acham que devemos ver.

Esses filtros, aliás, controlam e limitam a informação que chega a nossas telas.

Por enquanto, estamos familiarizados com anúncios que nos perseguem online com base em nossas conexões recentes em sites comerciais. Mas, cada vez mais e de maneira quase invisível, nossa busca por informação está sendo personalizadas também. Duas pessoas que fazem uma busca com a palavra "Egypt" no Google podem receber resultados significativamente diferentes, com base em suas conexões passadas. Mas o Yahoo News e o Google News fizeram ajustes em suas home pages para cada visitante individual. E, no mês passado, essa tecnologia começou a fazer incursões nos sites de jornais como The Washington Post e The New York Times.

Tudo isso é bastante inofensivo quando a informação sobre produtos de consumo é filtrada para dentro e para fora de seu universo pessoal. Mas quando a personalização afeta não só o que se compra, mas como se pensa, surgem questões diferentes. A democracia depende da capacidade do cidadão de deparar-se com múltiplos pontos de vista; a internet limita essa possibilidade quando oferece somente informações que refletem seu ponto de vista já estabelecido. Embora às vezes seja conveniente ver-se apenas o que se quer ver, é decisivo que em outros momentos se vejam coisas que não se costumam ver.

Como os velhos "guardiães", os engenheiros que escrevem o novo código do portal têm o enorme poder de determinar o que sabemos sobre o mundo.

Mas, diferentemente, dos velhos "guardiães", eles não se veem como "guardiães" da confiança pública. Não há algoritmo equivalente à ética jornalística. Mark Zuckerberg, o presidente executivo do Facebook, certa vez disse a colegas que "um esquilo morrendo no seu jardim pode ser mais relevante para seus interesses agora do que pessoas morrendo na África". No Facebook, "relevância" é virtualmente o único critério que determina o que os usuários veem. Fechar o foco nas notícias mais relevantes pessoalmente - o esquilo - é uma grande estratégia de negócios. Mas nos deixa olhando para o jardim em vez de nos informar sobre sofrimento, genocídio e revolução.

Não há volta atrás ao velho sistema dos "guardiães", nem deveria haver.

Mas se os algoritmos estão assumindo a função de editar e determinar o que vemos, precisamos ter certeza de que eles pesam variáveis além de uma "relevância" estreita. Eles precisam nos mostrar Afeganistão e Líbia além de Apple e Kanye West.

As companhias que fazem uso desses algoritmos precisam assumir essa responsabilidade salutar com muito mais seriedade do que fizeram até agora. Precisam nos dar o controle sobre o que vemos - deixando claro quando estão personalizando e nos permitindo moldar e ajustar nossos próprios filtros. Nós, cidadãos, também precisamos preservar nosso fim - desenvolvendo a "literatura de filtro" necessária para usar bem essas ferramentas e cobrando conteúdo que amplie nossos horizontes, mesmo quando isso for desconfortável.

É do nosso interesse coletivo assegurar que a internet se coloque à altura de seu potencial como um meio de conexão revolucionário. Isso não ocorrerá se formos confinados em nossos próprios mundos online personalizados. / TRADUÇÃO DE CELSO PACIORNIK

É PRESIDENTE DO CONSELHO DA MOVEON.ORG, É O AUTOR DE "THE FILTER BUBBLE: WHAT THE INTERNET IS HIDING FROM YOU"

Encontrou algum erro? Entre em contato

Comentários

Os comentários são exclusivos para assinantes do Estadão.

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.