top of page

Redes Sociais e A Radicalização da Política no Brasil

  • Foto do escritor: Antonio Motyole
    Antonio Motyole
  • 1 de fev. de 2022
  • 6 min de leitura

Atualizado: 3 de mar. de 2022

Não me lembro exatamente quando comecei a me interessar por política, mas lembro como. O caminho, que hoje sabemos ser o mesmo para um número incontável de pessoas, foi basicamente este: estava assistindo qualquer coisa no YouTube quando me foi sugerido um vídeo de certo professor de guitarra famoso por falar de política e, de recomendação em recomendação, me encontrei assistindo Brasil Paralelo, Olavo de Carvalho e MBL. No fim, estava defendendo absurdos sem tamanho como o “escola sem partido”, dizendo por aí que cotas em universidades eram uma forma de discriminação e achando que meus professores de humanas estavam um pouco "esquerdistas" demais. É vergonhoso dizer, mas, em certo momento, eu posso ou não ter acreditado em racismo reverso... prefiro deixar essa em aberto.


​A questão é que hoje, depois de anos da minha queda nessa toca de coelho, tais recomendações seguem atraindo jovens e pessoas despolitizadas para teorias da conspiração em vídeos sem fontes, o puro charlatanismo. O ponto é: precisamos falar sobre como nos informamos e como isso influencia a nossa formação política.

​De acordo com o último relatório do Instituto de Notícias Digitais da Reuters, trazendo dados de 2021, 83% dos brasileiros se informam online e 63% se informam através das redes sociais, comparados com 12% que ainda usam meios impressos. Além disso, e mais preocupante ainda, é que 47% dos pesquisados utiliza o Facebook para notícias, 43% usam o WhatsApp e 39% usam o YouTube, por mais que a confiança nas notícias em redes sociais seja de 34%.


​Não se engane, se informar online não é necessariamente algo ruim e chances são que você lendo este texto está nos 30% que usam o Instagram como fonte de notícias.


​A questão está em como essas mídias funcionam. Veja bem, nessa altura do campeonato já deve estar cansade de saber que o produto nesses sites... é você, ou mais precisamente, sua atenção. E, para conseguir te prender pelo maior tempo possível, os algoritmos jogam sujo, apelando para o mais básico da “natureza humana”: te afetando moral-emocionalmente e apelando para formação de grupos com um inimigo externo. Em outras palavras: te deixando puto e te fazendo odiar algum outro qualquer, o básico do Twitter. Mas como dizer não é provar, vamos a mais dados.


​Em 2016, o Departamento de Psicologia da Universidade de Nova Iorque publicou o estudo: “emoção molda a difusão de conteúdo moralizado nas redes sociais”. Nele, através da análise de tuítes sobre temas polêmicos como controle de armas, foi constatado que a expressão de emoção moral é chave para o processo de compartilhamento, ao ponto em que incluir palavras como “ódio”, “mau” e “ganância” aumentava a chance de um retuíte em 20% por palavra. O que faz muito sentido na forma como nos comunicamos: se eu estou tentando sinalizar que gosto da Lady Gaga, não falaria “eu pessoalmente gosto da Gaga”, e sim “a Gaga é simplesmente a maior que temos e quem discorda não sabe o que é arte”.


Para um dos pesquisadores, o professor Jay Van Bavel, “um dos motivos pelo qual isso acontece é que usamos esse tipo de ‘linguagem tribal’ para enviar um sinal de quem somos, sobre o que nos importamos e a que grupo pertencemos” e “uma das hipóteses é que quando as pessoas compartilham a forma mais extrema de conteúdo político, isso manda o sinal mais forte e claro sobre qual é a identidade delas e quem é o grupo adversário”. No fim, isso gera uma estrutura de incentivo para que as pessoas compartilhem conteúdo mais e mais extremo, emocional e moralizante, para que recebam mais e mais curtidas e retuítes – e quando a gente para um instante e repara, o que para nós foram horas perdidas em discussões online é lucro para quem comercializa nossa atenção.

Agora que relembramos como as redes sociais funcionam e sabemos dos dados de uso das redes sociais como fonte de informação e como o uso de linguagem emocional-moralizante aumenta os compartilhamentos, levando as pessoas a pontos de vista mais extremos, podemos falar das consequências desse ciclo vicioso aqui mesmo. Ou, como na matéria do The New York Times de 11 de agosto de 2019 escrita por Amanda Taub e Max Fisher: “como o Youtube radicalizou o Brasil”.


Focada justamente nesse processo de recomendação do Youtube que levaria a uma “radicalização”, essa matéria do NYT tratou dos achados de uma pesquisa orientada pelo Professor Virgílio Almeida na UFMG, entre eles, descobriram uma movimentação dos canais baseline (que serviram de controle) à direita e que canais já de direita expandiam mais rapidamente do que outros. De acordo com assessoria de imprensa da UFMG: “As fontes ligadas à direita foram escolhidas com base em seis recomendações feitas por Bolsonaro, entre elas os canais de Olavo de Carvalho e Bernardo Küster, e em outras recomendações desses youtubers. O material da esquerda foi selecionado com base em indicações que aparecem nas postagens de Sabrina Fernandes e Brasil 247. E os canais neutros são os da área de entretenimento com maior número de inscritos.”


Outra pesquisa ainda coescrita pelo Prof. Almeida, “Auditando caminhos de radicalização no YouTube”, constatou que usuários constantemente migram de conteúdo “mais suave” para mais extremos e, através da análise de dois milhões de recomendações, encontraram que conteúdo do tipo “Alt-lite” (de uma direita alternativa distanciada do conservadorismo mais popular e do nacionalismo branco da “Alt-right”) é facilmente alcançado através de canais do tipo “Dark Web Intelectual” (termo cunhado para se referir a um grupo de acadêmicos que foi popularizado através de um artigo do NYT em que descrevia “pensadores iconoclastas, renegados da academia e personalidades da mídia que tocam em tópicos controversos” – como Jordan Peterson, Ben Shapiro e Joe Rogan).


Numa terceira pesquisa, realizada pelos pesquisadores Kaiser J., Rauchfleisch A. e Córdova Y., do Berkman Klein Center de Harvard, foi encontrado que depois de usuários assistirem um vídeo de política, ou ainda entretenimento, as recomendações do YouTube favoreciam “canais de direita, cheios de conspirações como de Nando Moura”. Retomando o artigo do NYT: “o algoritmo uniu canais antes marginalizados – e daí construiu uma audiência para eles, os pesquisadores concluíram”. Obviamente, Bolsonaro estava incluso entre esses, postando desde 2012 e espalhamento as fake News mais clássicas, como a do “kit gay”.

Além disso, a matéria também menciona como a desinformação em relação ao vírus da Zika estava sendo espalhada de forma similar, como do vírus ser espalhado por vacinas ou inseticidas que serviram para espantar o inseto vetor.


Entre outras consequências, o foco do NYT foi a violência direcionada aos adversários políticos dessa direita youtuber. Entre esses, estava a antropóloga e professora da UNB, Debora Diniz, que desenvolve pesquisas sobre bioética e milita sobre questões de gênero e aborto. Após uma série de ameaças e de ser acusado por Bernardo Küster de estar envolvida em supostas conspirações da Zika, ela se viu obrigada ao exílio – e não foi a única. De acordo com os escritores da matéria: “À medida que os canais de extrema-direita e conspiração começaram a citar um ao outro, o sistema de recomendação do YouTube aprendeu a unir seus vídeos. Por mais implausível que qualquer rumor individual possa ser por conta própria, unidos, eles criam a impressão de que dezenas de fontes díspares estavam revelando a mesma verdade aterrorizante.”


​Felizmente, já no ensino médio, tive professores fantásticos que guiaram a turma pelo estudo das ciências humanas e no processo eu pude aprender a desfazer certas falácias que antes me convenciam. Graças à isso, consegui escapar da espiral de "radicalização" do Youtube e possivelmente de outras redes. Mas o que a gente pode fazer sobre ela? Aqui, vou citar Rita Von Hunty em seu último vídeo: “Tempo e Atenção”.


​A regra é: "pare de fazer idiotas famosos." Essa é pessoalmente difícil, pois todas vez que vemos algum absurdo, a vontade imediata é repostar justamente falando do quão absurdo aquilo é. Mas precisamos nos lembrar que ao fazer isso, alimentamos o algoritmo para que tal conteúdo seja mais entregue às pessoas, aumentando as chances que ele chegue em alguém que dará ouvidos.


​Mas como identificar um idiota? De acordo com a Rita, precisamos procurar se aquele processo é de formação crítica. A primeira pergunta ao se deparar com o conteúdo sendo dito é: “Quem disse?”. “Se a pessoa não te informa: eu estou me referindo a esse estudo, filósofo, pesquisa, com base nos dados..., ignore.” Depois disso, a chave é buscar o contexto do que foi dito: quando, onde e para quem.

Talvez esteja aqui exposto também a minha forma de lidar com isso: pesquisas e mais pesquisas, fontes e mais fontes.


Finalmente, é óbvio que precisamos de um nível de exigência maior no que tange o debate público e político, por isso lembrem-se não trabalhem de graça para idiotas, nem os deixem famosos.

Comments


  • Instagram
  • Facebook
  • Twitter
  • LinkedIn
  • YouTube
  • TikTok

© 2022 Jovem Político.

bottom of page