PUBLICIDADE

YouTube, o grande agente da radicalização

Algoritmo tende a levar o usuário para vídeos com posições extremistas

Por Zeynep Tufekci
Atualização:

Num determinado momento da campanha presidencial de 2016, assisti a uma série de vídeos de comícios de Donald Trump no YouTube. Estava escrevendo um artigo a respeito do poder de sedução que ele exercia em seu eleitorado e queria confirmar algumas citações.

Logo reparei em algo peculiar. O YouTube começou a recomendar e reproduzir automaticamente vídeos que traziam discursos de supremacia branca, negação do Holocausto e outros conteúdos perturbadores. Como não tenho o hábito de assistir propaganda de extrema direita no YouTube, fiquei curiosa para saber se esse fenômeno se restringia à direita. Assim, criei outra conta no YouTube e comecei a assistir a vídeos de Hillary Clinton e Bernie Sanders, deixando o algoritmo de recomendações do YouTube apontar a direção a seguir.

O Google parece acreditar que oferecer conteúdo extremo é uma maneira de ganhar dinheiro Foto: Ilustração de Jennifer Heuer para The New York Times

PUBLICIDADE

Em pouco tempo, fui encaminhada para vídeos de um canal esquerdista de conspirações, incluindo discussões a respeito da existência de agências secretas do governo e alegações segundo as quais o governo dos Estados Unidos estaria por trás dos ataques de 11 de setembro. Como ocorreu com os vídeos de Trump, o YouTube estava recomendando conteúdos mais extremos do que o discurso político comum do qual eu tinha partido.

Intrigada, fiz um experimento com temas desligados da política. O mesmo padrão básico foi observado. Vídeos de vegetarianismo levaram a vídeos de veganismo. Vídeos de corridas amadoras levaram a vídeos de ultramaratonas.

É como se o usuário nunca fosse “radical" o bastante para o algoritmo de recomendação do YouTube. Ele promove, recomenda e dissemina vídeos de uma maneira que parece sempre levar a coisa a um novo patamar. Levando em consideração seu público de aproximadamente um bilhão de usuários, o YouTube pode ser um dos instrumentos de radicalização mais poderosos do século 21.

Isso não ocorre porque uma cabala de engenheiros do YouTube planeja levar o mundo para a beira do abismo. Uma explicação mais provável deve estar ligada ao encontro entre a inteligência artificial e o modelo de negócios do Google (o YouTube pertence ao Google). Apesar de toda a sua retórica pomposa, o Google é uma corretora de publicidade, vendendo sua atenção para empresas dispostas a pagar por ela. Quanto mais as pessoas permanecem no YouTube, mais dinheiro o Google ganha.

O que mantém as pessoas ligadas ao YouTube? Seu algoritmo parece ter concluído que as pessoas são atraídas por conteúdo que seja mais extremo do que o ponto de partida, ou pelo conteúdo incendiário em geral.

Publicidade

Essa suspeita está correta? É difícil encontrar bons dados a esse respeito; o Google não compartilha informações com pesquisadores independentes. Mas temos agora os primeiros vestígios de confirmação, graças em parte a um ex-engenheiro do Google chamado Guillaume Chaslot.

Chaslot trabalhou no algoritmo de recomendações quando era funcionário do YouTube. Ficou alarmado com as táticas usadas para aumentar o tempo que as pessoas passam no site. O Google o demitiu em 2013, citando seu desempenho no emprego. Ele sustenta que o real motivo foi o fato de ter pressionado demasiadamente por mudanças na política da empresa para esses assuntos.

O Wall Street Journal realizou uma investigação do conteúdo do YouTube com a ajuda de Chaslot. Foi revelado que o YouTube com frequência “empurra vídeos de extrema direita ou extrema esquerda a usuários que assistiram programas jornalísticos relativamente neutros", e que essas tendências extremistas ficam evidentes numa ampla gama de material. Se alguém procura informações a respeito da vacina contra a gripe, as recomendações passam a incluir vídeos a respeito de conspirações da campanha antivacinação.

Também é possível que o algoritmo de recomendação do YouTube apresente a tendência de exibir conteúdo polêmico. No período que antecedeu a eleição de 2016, Chaslot criou um programa para acompanhar os vídeos mais recomendados do YouTube e também seus padrões de recomendação. Ele descobriu que, independentemente de partirmos de um vídeo pró-Trump ou pró-Hillary no YouTube, a probabilidade de um vídeo pró-Trump ser recomendado era muito maior.

CONTiNUA APÓS PUBLICIDADE

Se combinarmos essa revelação com outras pesquisas mostrando que, durante a campanha de 2016, as notícias falsas, que tendem ao absurdo, incluíram muito mais conteúdo pró-Trump do que pró-Hillary, a tendência do YouTube de favorecer o conteúdo polêmico parece evidente.

Recentemente, o YouTube foi criticado por recomendar vídeos promovendo teorias da conspiração segundo as quais os sobreviventes do tiroteio de Parkland, Flórida, são “encenadores de crises” se passando por vítimas. O pesquisador Jonathan Albright, da Universidade Columbia, em Nova York, manteve ativa recentemente uma conta do YouTube com uma busca por “encenador de crise” e descobriu que, ao seguir a recomendação do que assistir a seguir, o usuário era levado para uma rede de cerca de 9 mil vídeos promovendo essa teoria da conspiração e muitas outras.

O que estamos testemunhando é a exploração computacional de um desejo humano natural: olhar “nos bastidores”, mergulhar mais fundo em algo que nos mobiliza. De clique em clique, somos levados pela emocionante sensação de descobrir mais segredos e verdades mais profundas. O YouTube conduz o espectador por um túnel de extremismo, enquanto o Google fatura alto com a venda de anúncios.

Publicidade

Os seres humanos têm muitas tendências naturais que precisam ser monitoradas no contexto da vida moderna. Por exemplo, nosso desejo por gordura, sal e açúcar, que nos ajudou bastante quando o alimento era escasso, pode nos desviar do rumo num ambiente no qual gordura, sal e açúcar são demasiadamente abundantes e oferecidos agressivamente pelo marketing. O mesmo vale para nossa curiosidade natural em relação ao desconhecido, que pode nos desencaminhar numa página que promova mentiras, farsas e desinformação.

Na prática, o YouTube criou um restaurante que nos serve alimentos cada vez mais saturados de gordura e açúcar, enchendo nossos pratos assim que terminamos a refeição anterior. Com o tempo, nosso paladar se ajusta, e buscamos alimentos ainda mais gordos e açucarados, que o restaurante prontamente oferece. Quando os confrontamos, os donos do restaurante dizem estar apenas servindo o que pedimos.

Em alta
Loading...Loading...
Loading...Loading...
Loading...Loading...

Essa situação é especialmente perigosa levando em consideração o número de pessoas (principalmente os jovens) que procuram informações no YouTube. Os resistentes e baratos laptops Chromebook, do Google, que agora detêm mais de 50% do mercado de ensino fundamental e médio nos Estados Unidos, costumam ser equipados com pronto acesso ao YouTube.

Essa situação é inaceitável, mas não inevitável. Não há razão para permitir que uma empresa ganhe tanto dinheiro ao mesmo tempo em que ajuda potencialmente a radicalizar as opiniões de bilhões de pessoas, colhendo os benefícios financeiros enquanto pede à sociedade que arque com tamanho custo.

Zeynep Tufekci, professora-assistente da Faculdade de Ciência Biblioteconômica e da Informação da Universidade da Carolina do Norte, é a autora de “Twitter and Tear Gas: The Power and Fragility of Networked Protest". 

Tudo Sobre
Comentários

Os comentários são exclusivos para assinantes do Estadão.