Corey Olsen para The New York Times
Corey Olsen para The New York Times

Como conter a disseminação de teorias conspiratórias no YouTube?

A mudança no algoritmo de recomendação ainda não é suficiente para combater a onda de desinformação

Kevin Roose, The New York TImes

07 de março de 2019 | 06h00

Em janeiro, o astro do YouTube Shane Dawson colocou no ar seu novo projeto: um documentário de 104 minutos chamado "Teorias da conspiração com Shane Dawson". No vídeo, Dawson compartilhou uma série de hipóteses longínquas. Entre elas, a ideia de que os iPhones gravariam secretamente cada palavra dita por seus donos, de que certos programas de TV conteriam mensagens subliminares que sugerem às crianças que cometam suicídio e de que a série mais recente de incêndios na Califórnia teria sido ateada de propósito.

Nada disso era baseado em fatos, e algumas das histórias mais pareciam tolas lendas urbanas, e não acusações sérias. Ainda assim, o vídeo recebeu quase 35 milhões de visualizações, ganhando uma sequência que teve mais de 26 milhões de visualizações.

A série foi lançada num momento em que o YouTube estava lidando com informações falsas e conteúdo extremista em sua plataforma. No fim de janeiro, a empresa anunciou uma mudança em seu algoritmo de recomendações para reduzir a difusão de "conteúdo extremista e conteúdo que sirva para desinformar os usuários de maneira prejudicial".

Dawson, cujo verdadeiro nome é Shane Lee Yaw, tem 21 milhões de assinantes e um dedicado grupo de seguidores adolescentes. Construiu uma carreira lucrativa compreendendo o tipo de conteúdo que faz sucesso no YouTube. Durante anos, isso significou teorias da conspiração - todas apresentadas com a mesma credulidade fascinada. Num vídeo de 2016, ele se indagou se o primeiro pouso na Lua tinha sido encenado pela agência espacial americana (NASA). "É uma teoria, mas as provas não parecem muito sólidas".

Para as plataformas, parte do problema é que não há razão pela qual um vídeo questionando a narrativa oficial em torno do 11 de Setembro seria mais perigoso do que um vídeo afirmando a existência de OVNIs ou do pé-grande.

Uma teoria da conspiração é prejudicial quando causa danos - e, quando chega esse momento, costuma ser tarde demais para agir. Um exemplo disso foi o Pizzagate, uma teoria da conspiração de direita segundo a qual Hillary Clinton e outros democratas manteriam secretamente uma rede de prostituição infantil. A teoria poderia ter se limitado a uma bizarrice da internet, mas, um dia, um sujeito armado com um fuzil entrou numa pizzaria de Washington para resgatar crianças que ele imaginou estarem trancadas no porão.

Em fevereiro, Guillaume Chaslot, ex-engenheiro de software do YouTube, descreveu no Twitter que a decisão de mudar o algoritmo de recomendação é uma "vitória". Posteriormente, mostrou-se menos otimista, dizendo que a jogada pode ter sido apenas um golpe de publicidade. Como a mudança vai afetar apenas os vídeos recomendados pelo YouTube - as teorias da conspiração aparecem nos resultados de busca -, ele acredita que a medida será insuficiente, e sugeriu uma possível solução: a regulamentação. Seria necessário uma emenda às leis que impedem as plataformas de serem responsabilizadas juridicamente pelo conteúdo publicado pelos usuários.

"No momento, elas não têm o incentivo adequado para fazer a coisa certa", disse Chaslot. "Mas se aprovássemos leis especificando que, depois de recomendar algo mil vezes, a plataforma se torna responsável pelo conteúdo, garanto que o problema seria resolvido muito rapidamente".

Encontrou algum erro? Entre em contato

O Estadão deixou de dar suporte ao Internet Explorer 9 ou anterior. Clique aqui e saiba mais.