Estariam os algoritmos aprendendo "a colocar lenha na fogueira"?
Na minha época de ensino médio, lembro das pessoas que eram especialistas em "colocar lenha na fogueira". Qualquer briga, elas conseguiam piorar a situação, criando "jogando gasolina na fogueira".
Já sabemos que os bots do Facebook conseguem criar bolhas: basicamente, você é servido com conteúdo do seu interesse, somente. Nada de estresse cognitivo te forçando a ver postagens de quem discorda de você. A cada momento que interage, recebe mais postagens do mesmo teor. Isso seria alimentar com conteúdo de interesse, de certa forma, neutro emocionalmente.
Não é novidade para mim que os algoritmos conseguem agora medir a neutralidade de comentários, eu mesmo fiz um simples para identificar ofensas.
Esse insight me veio na cabeça depois de notar, por algum tempo, que o primeiro comentário da postagem de Facebook dita o restante. Se o primeiro for negativo, chances são baixíssimas de que o restante vai ser melhor. Estamos caminhados para discussões não produtivas.
Claro, isso poderia ser somente comportamento humano, que acaba se impregnando no algoritmo como o caso do Google Image, que mostra imagens de pessoas negras quando questionado sobre cabelo ruim. Contudo, dado o objetivo principal da rede de lucrar, inclusive com discurso de ódio, não me deixaria surpreso em saber que indiretamente ou diretamente, esse comportamento humano possa estar sendo usado para gerar engajamento.
Comments