Última alteração: 2023-02-28
Resumo
Nos últimos anos há uma percepção de aumento dos fluxos de desinformação e notícias falsas que circulam em redes e plataformas de mídias sociais e interferem na formação da opinião pública a respeito de temas centrais como política e, mais recentemente, a questão sanitária após o período de pandemia de covid-19. Para além de questões relacionadas à desinformação em si, é preciso compreender como as mídias sociais digitais lidam com esse tipo de conteúdo em suas plataformas, considerando que há normas e medidas para impedir ou diminuir a circulação de desinformação nas redes.
A investigação proposta aqui se realiza a partir dos dados publicizados pelas próprias empresas como forma de transparência e informação aos usuários sobre suas práticas. Contempla as regras descritas nos documentos formadores das políticas e as postagens de blogs corporativos que visam esclarecer ao público o funcionamento da moderação comercial de conteúdos (Roberts, 2021) realizada pelas empresas. Procura-se aqui debater se há um tratamento assimétrico ou enviesado, e se a modulação algorítmica (Silveira, 2018) interfere de alguma maneira no modo como as plataformas organizam a informação acessada pelo usuário.
A proposta de trabalho procura investigar como três grandes plataformas – Facebook, Youtube e Twitter, lidam com o problema de desinformação em suas redes e que medidas cada empresa utiliza para solucionar o problema de desinformação, considerando que há um modelo de negócios orientado pela economia de atenção e manutenção dos usuários nos aplicativos e pela financeirização de dados negociados pelas plataformas para direcionamento de publicidade, fatores que estimulam a promoção e amplificação de conteúdos que provoquem maior engajamento mesmo que de maneira nociva em casos extremos.
A partir de metodologia de rastreamento de processos (Beach & Pedersen, 2013), que prevê análise de dados qualitativos combinando técnicas de análise documental e estudos de casos para estabelecer as relações causais sobre a remoção de conteúdos, procura-se descrever o funcionamento das plataformas estudadas, como cada rede lida com desinformação e quais seus respectivos procedimentos para detectar e remover conteúdos, como o fazem, em que casos ocorre a remoção e se há exceções em suas normas.
Resultados preliminares apontam que há preocupação por parte das plataformas com questões relacionadas a processos eleitorais e sobre a divulgação de informações falsas sobre vacinação, porém apesar das normas e medidas para moderação de conteúdos nas plataformas, que incluem checagem de fatos e remoção de páginas e perfis que divulgam informações falsas, não há como medir significativamente os resultados a partir dos dados publicizados e que as ações tomadas visam proteger as empresas de riscos jurídicos e possibilitar a comercialização de seus espaços para anúncios mais do que proteger os usuários em si.