Por Marcus Aragão, @aragao01
Muito já se ouviu falar que estamos na era da pós-verdade. Mas o que isso significa? Trata-se de um tempo em que os fatos, a verdade, perderam importância. Ou seja, estamos vivendo na era da mentira. Presenciamos debates intermináveis nas redes sociais, onde qualquer fato pode ser desconstruído por meio de narrativas. Tanto a direita quanto a esquerda estão 100% convictas de que detêm a razão — o que, por si só, é impossível. Fake news e desinformação sempre existiram, mas com a ascensão das redes sociais, esse movimento sepultou a verdade.
Um artigo de opinião publicado no New York Times, intitulado “The Age of Post-Truth Politics” [A era da política da pós-verdade], argumentava que a própria democracia está em risco, pois os fatos “perderam a capacidade de gerar consensos”. O New Yorker analisou “Why Facts Don’t Change Your Mind” [Por que os fatos não fazem você mudar de ideia], e então veio a capa da revista Time, com uma única pergunta em letras vermelhas sobre um fundo preto, que parecia resumir o pânico moral do nosso crescente caos atual: “Is Truth Dead?” [A verdade está morta?].
Vamos entender como funciona a desconstrução da verdade. Quem iniciou uma campanha para implodir a verdade de forma profissional, estruturada e metódica foi a indústria do tabaco nos EUA, na metade do século passado. Diante de pesquisas científicas que acusavam o cigarro de provocar câncer e doenças no coração, eles arquitetaram uma brilhante e maquiavélica estratégia de relações públicas para manipular a opinião pública. O sucesso dessas táticas criou um modelo para outras indústrias, bem como para grupos políticos, que adotaram abordagens semelhantes para proteger seus interesses.
A base da manipulação residia na criação de dúvida científica. A estratégia central da indústria do tabaco foi semear incertezas sobre a conexão entre tabagismo e doenças. Utilizando uma técnica chamada de “fabricação de incerteza”, eles, em vez de refutar diretamente as descobertas científicas, buscavam criar a percepção de que a ciência não era conclusiva e que mais pesquisas eram necessárias — o objetivo era “manter a controvérsia viva”.
Patrocinaram campanhas de relações públicas e publicidade utilizando médicos e influenciadores que defendiam que o risco era exagerado; realizaram lobby político e legal para influenciar legisladores e evitar a implementação de regulamentações rigorosas; e passaram a desacreditar diretamente os cientistas que conduziam pesquisas antitabaco, sugerindo que suas conclusões eram motivadas por interesses pessoais ou falta de rigor científico.
Essa estratégia de relações públicas foi incrivelmente eficaz em retardar a regulação do tabaco e em manter o consumo elevado por décadas. Como resultado, milhões de vidas foram perdidas devido a doenças relacionadas ao cigarro, mesmo após as evidências dos perigos serem amplamente conhecidas.
Pronto. Já temos a base da desconstrução da verdade. Agora, com a utilização das ferramentas dos algoritmos, potencializamos sua disseminação e estimulamos a hiperpolarização. Quem ganha com isso? As redes sociais, pois o engajamento aumenta mais com o fortalecimento do extremismo das opiniões. A raiva e a indignação mobilizam muito mais. Mas como isso acontece?
Um bom exemplo são as “bolhas de filtro” e as “câmaras de eco” das redes sociais. O termo “bolhas de filtro” refere-se ao fenômeno em que os algoritmos das redes sociais e motores de busca personalizam o conteúdo exibido aos usuários com base em suas preferências e histórico de navegação. Isso cria uma “bolha” de informações em que os indivíduos são expostos apenas a opiniões, notícias e conteúdos que confirmam suas crenças e interesses pré-existentes, enquanto outras perspectivas são filtradas ou minimizadas.
Essa filtragem algorítmica reforça crenças e atitudes, isolando as pessoas em seus próprios mundos informativos e limitando o acesso a diferentes pontos de vista. Como resultado, as bolhas de filtro contribuem para a polarização social e para a disseminação de desinformação, já que os usuários têm menos probabilidade de encontrar informações que desafiem suas opiniões.
As “câmaras de eco” surgem quando as pessoas interagem principalmente com aquelas que compartilham visões semelhantes, seja por escolha pessoal ou devido aos algoritmos das plataformas online que promovem conteúdo similar ao que os usuários já demonstraram interesse. Isso cria um ciclo de autoafirmação, onde as opiniões de um grupo são amplificadas e divergências ou informações conflitantes são minimizadas ou ignoradas. Vamos analisar alguns dos efeitos mais preocupantes da ação dos algoritmos.
A desumanização do “outro”: Nas câmaras de eco, o “outro”, ou aqueles que pensam de maneira diferente, são frequentemente retratados de forma negativa ou até desumanizada. Esse processo facilita a disseminação do ódio e da intolerância, pois torna mais fácil justificar a discriminação, o preconceito e até a violência contra aqueles que são vistos como adversários.
A disseminação de desinformação e teorias da conspiração: As bolhas de filtro também facilitam a disseminação de desinformação e teorias da conspiração, que muitas vezes servem como combustível para o extremismo. Quando as pessoas têm acesso apenas a informações que reforçam suas crenças, mesmo que essas informações sejam falsas ou enganosas, elas são mais propensas a acreditar e agir com base nelas.
Recrutamento para grupos extremistas: Grupos extremistas utilizam as câmaras de eco para identificar e recrutar indivíduos que já demonstram predisposições para visões radicais.
O surgimento de grupos neonazistas, extremistas e outros movimentos radicais pode ser visto como uma consequência direta dessas dinâmicas nas redes sociais. Estudos e relatórios de organizações como o Center for Countering Digital Hate e a Anti-Defamation League confirmam que as redes sociais têm desempenhado um papel significativo na radicalização online, destacando a necessidade urgente de abordar essas questões para mitigar os efeitos nocivos das bolhas de filtro e câmaras de eco.
Enquanto grupos políticos, indústrias e as redes sociais lucrarem com esse modelo de negócio, não vejo perspectivas de uma melhoria a curto prazo. Enquanto isso, nos viciamos com a liberação de dopamina a cada curtida e comentário favorável ao nosso ponto de vista — nos prendendo numa imensa teia de (des)informação.
Entender como funciona a estrutura da manipulação pode ser o início do renascimento da verdade.
Postado em 1/09/2024 às 12:00 - Artigo originalmente publicado na Tribuna do Norte (1/09/2024)
0 Comentários:
Postar um comentário