Quem controla o conteúdo do seu feed nas redes sociais
Uma decisão recente do Supremo Tribunal Federal, que admitiu a possibilidade de responsabilizar redes sociais por publicações de usuários, voltou a colocar em evidência o mecanismo que define quais postagens chegam a cada pessoa. Nas principais plataformas, algoritmos de recomendação segmentam perfis, selecionam informações e determinam a ordem de exibição de textos, imagens e vídeos. Apesar do impacto direto sobre a formação da opinião pública, esses sistemas operam sem transparência e escapam a qualquer tipo de escrutínio externo.
O modelo parte da análise de padrões de consumo digital. Ao cruzar curtidas, tempo de visualização e interações diversas, o algoritmo agrupa usuários com comportamentos semelhantes e apresenta conteúdos que, estatisticamente, geram maior probabilidade de engajamento. A lógica prioriza tempo de permanência e cliques, não critérios como diversidade de fontes ou relevância jornalística. Na prática, publicações sensacionalistas ou polarizadoras tendem a ganhar alcance, enquanto materiais analíticos ou de verificação factual ficam em segundo plano.
A professora Rose Marie Santini, da Escola de Comunicação da Universidade Federal do Rio de Janeiro e diretora do NetLab, acompanha a evolução das recomendações desde os primeiros experimentos com músicas on-line, no início dos anos 2000. Segundo a pesquisadora, o usuário não recebe exatamente o que deseja, mas aquilo que o sistema considera adequado ao grupo de consumo ao qual ele foi associado. Dessa forma, o algoritmo molda preferências coletivas e reforça bolhas de informação.
Esse desenho concentra poder nas plataformas, que controlam dados, audiência, métricas de remuneração e distribuição de conteúdo. Criadores não dispõem de detalhes sobre a frequência com que suas produções são exibidas, nem sobre os critérios que determinam o sucesso de uma postagem. Ao mesmo tempo, a ausência de visibilidade pública impede a sociedade de avaliar se há manipulação deliberada de alcance ou favorecimento comercial de determinados perfis.
O cenário se agrava quando atores políticos, econômicos ou criminosos aproveitam as brechas. Com o uso de contas automatizadas e perfis falsos, grupos organizados inflacionam curtidas, comentários e compartilhamentos, fabricando uma aparência de popularidade. Esse movimento altera a percepção do que é relevante e pode influenciar escolhas eleitorais ou comportamentais. A produção massiva de desinformação, turbinada pelos sistemas de recomendação, passa a disputar espaço com jornais, agências de checagem e veículos especializados, dificultando o acesso a dados verificados.
Para especialistas, enfrentar o problema exige ações em três níveis. No âmbito cultural, torna-se necessário promover alfabetização midiática, de forma que usuários reconheçam como o fluxo de informações é filtrado. No campo político, discute-se a criação de regras que obriguem plataformas a divulgar critérios de recomendação e abrir seus dados a auditorias independentes. Por fim, na esfera econômica, debate-se a responsabilidade financeira das empresas que lucram com anúncios exibidos ao lado de conteúdos enganosos.
A decisão do STF insere o Brasil em um debate global sobre regulação de tecnologia e liberdade de expressão. Ao admitir que a empresa pode ser corresponsável por danos causados por publicações de terceiros, o tribunal pressiona as plataformas a revisar políticas internas de moderação e aumentar a transparência de seus algoritmos. Resta acompanhar se, além de ajustes pontuais, surgirão mecanismos efetivos de fiscalização que permitam à sociedade compreender, controlar e, quando necessário, contestar a curadoria que define o que aparece nos feeds de bilhões de pessoas.