Pesquisadores afirmam que bots farão grande estrago nas eleições de 2018

Será cada vez mais complicado identificar um.
23/08/2018
Publicado originalmente na Vice

 

Se você passa perto de discussões nas redes sociais, deve ter percebido que, de uns meses para cá, em qualquer sinal de evento político, surgem alguns seres estranhos, incendiários e repetitivos para falar coisas desconexas sobre as pautas do dia. Eles costumam andar em grupo, com fotos e discursos parecidos, e não conseguem articular muita coisa além de hashtags e frases prontas. Em dois ou três cliques, é normal nos perguntarmos: esse perfil é real?

A presença de robôs no debate público virou uma estranha rotina no Brasil. No Twitter, principal habitat desses seres automatizados, é comum vermos bots inflarem hashtags e criarem a impressão de que determinado assunto faz barulho. É assim desde as eleições de 2014, quando partidos políticos e agências fizeram seu primeiro campo de testes. Agora, porém, o cenário está mais bélico e preocupante.

Um relatório publicado pela Fundação Getúlio Vargas nesta quarta (22) alerta que os robôs representam um perigo para as eleições de 2018. “A interferência de perfis automatizados nas discussões que transcorrem nas redes sociais representa uma ameaça à integridade do debate público, uma vez que os robôs são capazes de falsear um cenário de apoio ou crítica a determinado tema ou pessoa”, diz o estudo, disponível no site da Sala da Democracia, iniciativa da Diretoria de Análises de Políticas Públicas (DAPP) da fundação.

De 2014 pra cá, os bots ampliaram seu tamanho e sua atuação. Se antes se limitavam a endossar, agora conseguem até pautar discussões. Um exemplo ocorreu no ano passado, durante a polêmica a respeito da exposição Queermuseum, quando houve uma acusação indevida de pedofilia em expressão artística. Na ocasião, os robôs foram responsáveis por inflamar o debate público. O relatório mostra que 8,69% das interações foram identificadas como provenientes de bots. Como poucos podiam prever, as hashtags e mensagens que se opunham à arte em prol da família cresceram a ponto de tornar essa pauta digna de discussão na grande maioria de veículos de comunicação. Em questão de horas, jornais tiveram que explicar o que era arte e o quão distante de crimes sexuais estava a exposição.

Outro motivo de preocupação do uso de robôs é que agora vários grupos perceberam que podem manipular a opinião com pouco investimento. Virou uma espécie de cabo de força automatizado. Durante o julgamento do ex-presidente Lula em 24 de janeiro, por exemplo, quando foram gerados mais de 1,21 milhão de tuítes em um intervalo de 24 horas, os perfis automáticos participaram ativamente da comoção nacional. No grupo contrário à prisão de Lula, 8% era de bots. A porcentagem entre os que queriam ver o ex-líder sindical preso foi pouco menor: 6% de robôs. Já no primeiro debate entre os candidatos à presidência de 2018, o número de interações automáticas foi considerado baixo (3%), mas houve alto número de tuítes e retuítes (1,6 milhão), o que ajuda a mostrar o grande alcance desses perfis.

O potencial de danos, afirma a DAPP, é enorme. Para o grupo, a presença de robôs deve ser identificada, especialmente em momentos de grande relevância política. “Apenas com essa notificação dos robôs é possível diferenciar quais situações são reais ou forjadas nos debates nas redes sociais, o que é de extrema relevância em um contexto político intensamente polarizado como o atual”, diz o estudo.

Em julho, o Twitter afirmou ter feito uma limpeza em perfis falsos e que espalhavam notícias falsas e discursos de ódio. Representou uma queda de um milhão de usuários, de acordo com dados divulgados à época. Ainda assim, o problema parece longe de estar resolvido. Os bots, afinal, nascem e se reproduzem em velocidade muito mais rápida do que os atuais sistema de controle.

Identificar bots será cada vez mais difícil

De acordo com Danilo Carvalho, pesquisador do DAPP, existem diversos sinais que denunciam um perfil-robô. Ele e seus colegas buscam padrões de comportamento. Em primeiro lugar, diz Carvalho, procuram “um padrão de atuação não-humano”. “Contas que fazem vários tuítes no mesmo segundo, num ritmo impossível para um ser humano”, afirma. Outro sinal de automatização está nos metadados encontrados em cada tuíte. A maioria das postagens, explica o pesquisador, é criada “no Twitter para iOS, para Android, para web, Tweetdeck, e em algumas dessas ferramentas que a gente conhece”.

Por último, os pesquisadores procuram averiguar se existe um grande número de contas postando as mesmas coisas ao mesmo tempo. Por meio de uma análise sofisticada, eles conseguem identificar padrões de automatização mesmo em contas que parecem ser legítimas.

Ainda assim, é muito difícil identificar um robô de maneira isolada e sem ferramentas. De acordo com Daniel Arnaudo, fellow do Instituto Igarape e Senior Program Manager do National Democratic Institute (NDI), as técnicas estão mudando e ficando mais sofisticadas. Agora, explica, os perfis fazem conteúdos de vários assuntos, postando menos conteúdos, 12 ou 13 por dia, mas com mil, dois mil robôs postando a mesma coisa. O segredo para o sucesso do conteúdo promovido pelos bots é atuar em rede. Embora existam botnets voltadas a outras áreas como entretenimento e publicidade, as redes que falam sobre política são independentes. “Na maioria dos casos, os bots políticos são de redes mantidas pelo próprio time político, não são bots comerciais”, diz Carvalho.

Leia a reportagem completa

O Instituto Igarapé utiliza cookies e outras tecnologias semelhantes para melhorar a sua experiência, de acordo com a nossa Política de Privacidade e nossos Termos de Uso e, ao continuar navegando, você concorda com essas condições.

Pular para o conteúdo