A desinformação tornou-se comum no discurso online. Ao contrário das fake news, onde as falsidades são deliberadamente espalhadas com a intenção de enganar, os fatos incorretos da desinformação são divulgados com a crença de que a informação é verdadeira. O compartilhamento involuntário de informações falsas é mais comum do que a disseminação intencional de informações ruins, tornando muito mais difícil combatê-las.

A velocidade e o volume de dados compartilhados por meio de tecnologias avançadas continuam a ampliar o impacto potencial da desinformação na cobertura de notícias. Seja sobre mudanças climáticas, eleições ou atualizações de informações sobre vacinas COVID-19, a desinformação continua a se espalhar como um incêndio na Internet.

A facilidade e a velocidade de compartilhamento das quais os veículos de notícias se aproveitam, no entanto, têm sido cada vez mais usadas para fins nefastos. Neste artigo, vamos dar uma olhada em como a desinformação explodiu nas plataformas digitais e o número de maneiras pelas quais a tecnologia pode ajudar a resolver esse grande problema.

Estratégias digitais que levaram à desinformação 

Reportar notícias não é mais domínio exclusivo de jornalistas profissionais, e o público também está envolvido no processo de produção de notícias. Embora se possa argumentar que isso tem um efeito democratizante no jornalismo, essa suposta democratização tem muitas vezes implicado em um retrocesso.

Com o aumento da personalização digital e do Big Data na última década, as plataformas possibilitaram mensagens personalizadas para garantir que o conteúdo ressoe com determinados dados demográficos. Estudos mostram que um terço da população global está nas redes sociais. Embora nem todos esses usuários busquem notícias, os mecanismos de recomendação das plataformas de mídia social trabalham para manter seus usuários envolvidos em sua plataforma pelo maior tempo possível. A obrigação de verificar o conteúdo publicado não está no topo da lista e também pode afetar negativamente suas metas de engajamento. Portanto, quando uma sinopse de conteúdo enganoso prova atrair mais engajamento, esses algoritmos de mídia social não hesitam em enviar esse conteúdo para outros usuários, especialmente aqueles que já se envolveram com conteúdo semelhante.

Esses algoritmos de mídia social certamente equipam criadores e editores de conteúdo com as ferramentas necessárias para encontrar seu público ideal, mas esse é apenas um lado da história. Aqui estão alguns fatores que continuam a ser responsáveis por surtos de desinformação:

Algoritmos de modelagem de conteúdo – Big Data, juntamente com aprendizado de máquina, garantem que os consumidores obtenham, como uma plataforma de mídia social pode dizer, “conteúdo adequadamente personalizado”. Às vezes, isso significa servir a alguém conteúdo cada vez mais envolvente de factualidade questionável.

Micro-segmentação – Envio de conteúdo para um grupo demográfico hiperespecífico com base na região, interesses ou outras informações pessoais fornecidas na plataforma.

Conteúdo gerado por bots – Esses bots podem produzir conteúdo mais rapidamente do que o escritor médio, às vezes gerando artigos difíceis de diferenciar de postagens feitas por pessoas, o que cria a falsa impressão de que há um buzz orgânico em torno de um tópico ou história.

Algoritmos de moderação de conteúdo – Esses algoritmos detectam conteúdo em uma plataforma que quebra seus termos de serviço e remove esse conteúdo sem qualquer envolvimento humano.

Embora possamos supor ou até exigir que as plataformas sociais rastreiem informações erradas, há uma pequena chance de que o Facebook, Twitter ou YouTube as eliminem completamente. Uma das razões é que requer policiamento virtual em tempo integral de todo o conteúdo, e dada a natureza dessas plataformas é permitir que as pessoas publiquem conteúdo imediatamente e livremente, é inevitável que a desinformação chegue a muitas dessas plataformas, mesmo que por um curto período de tempo antes de ser removido.

A possível cura para a desinformação está aqui, mas funcionará? 

A crescente preocupação com a desinformação anda de mãos dadas com as medidas tomadas pelas plataformas para verificar a desinformação. Também houve várias tentativas de governos nacionais em todo o mundo de apresentar intervenções legislativas ou de pressionar as principais plataformas para verificar se há desinformação.

Combater esses surtos de desinformação liderados pela tecnologia com tecnologia avançada não parece uma má ideia. Como dizem, devemos combater fogo com fogo. O AI Grover, construído por um grupo de pesquisadores da Universidade de Washington, foi criado como uma ferramenta para detectar notícias falsas geradas pela IA. Ele mostrou 92% de precisão na detecção de notícias escritas por humanos ou bots e também forneceu aos leitores até 72% de precisão na detecção de texto falso. Outras ferramentas também foram criadas para identificar textos falsos, mas essas tecnologias avançadas ainda precisam demonstrar o quão impactantes podem ser no combate a problemas de desinformação evocados por maus atores e analfabetos digitais.

No entanto, como diz Mike Devito, pesquisador de pós-graduação da Northwestern University,

   “Não são problemas tecnológicos; são problemas humanos que a tecnologia simplesmente ajudou a escalar, mas continuamos tentando soluções puramente tecnológicas. Não podemos aprender a sair desse desastre, que é uma tempestade perfeita de conhecimento cívico deficiente e alfabetização informacional deficiente.”  

Com os gatekeepers das principais plataformas dando o seu melhor, seria melhor preparar um espaço digital onde os usuários sejam mais socialmente responsáveis por interagir com o conteúdo prontamente disponível. Isso certamente melhorará a qualidade das informações trocadas, satisfazendo assim o propósito primordial das plataformas digitais.

Esse post foi traduzido da nossa revista em inglês ManageEngine Insights, e sua autoria original é de Naveena Srinivas.