Edição 520 | 23 Abril 2018

Fake news e o triunfo do reducionismo

close

FECHAR

Enviar o link deste por e-mail a um(a) amigo(a).

Ricardo Machado

Rafael Zanatta explica que precisamos produzir uma taxonomia da desinformação para compreendermos a complexidade das disputas políticas e informacionais contemporâneas

Em março deste ano o Facebook, uma das maiores empresas do mundo, viu-se diante de sua maior crise de imagem com o escândalo da Cambridge Analytica. A repercussão do caso foi tamanha que Mark Zuckerberg teve que ir ao Congresso dos Estados Unidos para responder a uma sabatina de senadores e deputados. O episódio trouxe à tona a manipulação de dados de 80 milhões de usuários da rede social que foram utilizados na campanha eleitoral de Donald Trump. “Esse caso mostra algo muito importante, a interconexão, interdependência entre processos de coletas de dados obscuros e um novo mercado de manipulação eleitoral que é estruturado a partir de técnicas de psicometria. Esse é o resumo que o caso revela. Ele é muito maior que o problema das notícias falsas”, avalia Rafael Zanatta em entrevista por telefone à IHU On-Line.

“O episódio coloca um ponto de interrogação para saber o que está acontecendo com os nossos processos de escolha democrática, com os mecanismos eleitorais que se tornam muito porosos e muito influenciáveis pela tecnologia da informação”, destaca Zanatta. Para o pesquisador, a solução para este problema é complexa e exige a mobilização de vários atores sociais e políticos. “As ONGs podem fazer muito mais cartilhas e projetos de envolvimento com a população, as universidades podem fazer muito mais. Não se trata de apontar o dedo na cara de um setor ou de uma pessoa e dizer “você é o responsável” para o problema da desinformação. É preciso, antes, fazer um papel muito crítico de autoavaliação dos múltiplos papéis que nós temos como profissionais e cidadãos”, pontua.

Além disso, superar uma visão reducionista do problema, incapaz de perceber as nuances desse tipo de guerra informacional, é primordial. “É importante produzir uma taxonomia de diferentes formas de desinformação. Ela pode acontecer não necessariamente com a produção de um conteúdo falso, uma notícia falsa, mas, por exemplo, com a publicação proposital de uma notícia de quatro anos atrás fora de contexto. Ou mesmo com a mobilização de vários robôs para reforçar um tipo de discurso opinativo, que tem um caráter muito agudo, desestabilizador”, complementa.

Rafael A. F. Zanatta, pesquisador em Direito e Sociedades Digitais, mestre em Direito e Economia Política pela International University College of Turin e mestre em Sociologia Jurídica pela Universidade de São Paulo - USP, onde foi coordenador do Núcleo de Direito, Internet e Sociedade. Graduou-se em Direito na Universidade Estadual de Maringá - UEM.

Confira a entrevista.

IHU On-Line – Como o escândalo do Facebook com a Cambridge Analytica trouxe à tona a interferência das tecnologias digitais na política?
Rafael A. F. Zanatta – Esse é um caso paradigmático porque explicitou uma série de questões que pesquisadores da área do direito digital e da democracia já vinham apontando há muito tempo. Um dos principais problemas é o risco de uma coleta intensiva de dados digitais e o repasse para uma finalidade que não aquela para a qual foi coletada. Por exemplo, esse caso do Facebook com a Cambridge Analytica é muito significativo, porque todo o esquema estava estruturado na pesquisa de cientistas para um teste de personalidade chamado This is your digital life (Esta é sua vida digital, em tradução livre). Era um teste que coletava informações que os usuários já tinham publicado no Facebook e a tese do professor era a de que, com as informações públicas (postagens, curtidas, geolocalização) era possível atribuir um perfil psicométrico. A metodologia utilizada era do campo da psicologia comportamental e esse estudo era capaz de identificar a possível orientação política do usuário.

O problema particular desse teste é que ele foi desenvolvido com interesse público. Tratava-se de um estudo acadêmico que tinha por finalidade demonstrar o quanto as pessoas estão expostas e quanto é possível deduzir informações sobre uma pessoa que está na rede social. O grande problema é que Aleksandr Kogan , o investigador da Universidade de Cambridge, vendeu a metodologia para uma empresa privada de consultoria política chamada Cambridge Analytica. Esta empresa foi criada por Robert Mercer , que é um multimilionário financeiro dos Estados Unidos, juntamente com Steve Bannon , o estrategista chefe de Donald Trump no início de 2016.

Cambridge Analytica

Era um grupo que tinha interesses de manipulação de eleições, chamado por eles de “conquista dos votos indecisos”. Todo esse aparato foi usado para criar imagens de impacto que eram destinadas precisamente ao perfil psicométrico já predefinido de acordo com os dados pessoais coletados no Facebook. Então para uma pessoa que seria mais de esquerda e com preocupações do poder dos grandes bancos financeiros na sua vida, as mensagens de Trump chegavam com um viés nacionalista: “vamos retomar a economia, diminuir o poder dos grandes bancos e reforçar os comércios locais”. Para alguém mais orientado à ideia de livre mercado, a mensagem chegava mais ou menos assim: “nosso governo vai derrubar os acordos da Organização Mundial do Comércio - OMC e vamos ampliar o livre comércio longe das amarras dos acordos internacionais”. As várias estratégias e mensagens foram criadas para atingir determinados perfis psicológicos e todas as informações foram coletadas sem as pessoas saberem o que estava acontecendo.

O episódio demonstrou esta coleta irrestrita e o não controle do Facebook de quem recebia essas informações. O que gerou todo esse caos foi a API do Facebook, a estrutura tecnológica de formato aberto que a rede social disponibiliza para os desenvolvedores. O jornal The Guardian mostrou agora em março, com declarações de ex-funcionários da Cambridge Analytica, como Christopher Wylie , o primeiro que denunciou publicamente, mostrando que as ações eram ainda mais brutais porque a análise não era feita somente com quem tinha feito testes de personalidade, mas também conseguiam coletar informações, inclusive, dos amigos dessas pessoas. O alcance foi de 80 milhões de usuários, porque aproveitaram o próprio efeito em rede do Facebook para gerar essa bomba que foi o escândalo da Cambridge Analytica.

Tudo isso fez com que Zuckerberg prestasse depoimento de dois dias no Congresso dos Estados Unidos. Esse caso mostra algo muito importante, a interconexão, interdependência entre processos de coletas de dados obscuros e um novo mercado de manipulação eleitoral que é estruturado a partir de técnicas de psicometria. Esse é o resumo que o caso revela. Ele é muito maior que o problema das notícias falsas. Há toda uma estrutura necessária para que isso aconteça e essa estrutura está fortemente centrada em empresas que se tornaram consultorias políticas a partir da expertise em tecnologia de comunicação e processos de coleta de dados que são ilegais e obscuros. Tudo isso precisa ser discutido e combatido imediatamente, especialmente no Brasil, em que estamos na reta final da elaboração de uma lei de dados pessoais.

IHU On-Line – Parece haver uma nova ecologia da manipulação política?
Rafael A. F. Zanatta – Exatamente, mas se trata de uma coisa completamente diferente do que a teoria política produziu nos últimos séculos. Por exemplo, se alguém pegar textos de Francis Bacon , do século XVI/XVII, há um deles que disserta sobre boataria e os impactos políticos, como aqueles para desmerecer certas lideranças. Esse é um problema antigo, muito antigo.

O novo é uma ecologia específica em que se torna possível coletar muitos dados que serviriam para uma finalidade específica, mas cujo pacto é quebrado, aliado ao desenvolvimento muito acelerado de técnicas de psicometria. Além disso tem a construção desses perfis psicológicos voltados à orientação política, isso também é algo recente no campo da psicologia em termos de desenvolvimento teórico. Esses dois fenômenos são novos e fazem parte desta nova ecologia das notícias falsas, por assim dizer.

Isso é diferente do que estávamos acostumados a debater na teoria política dos últimos séculos. Isso sim é específico e merece um cuidado muito grande dos cidadãos para entender o que está acontecendo e para tomar decisões políticas do que fazer, como remediar e solucionar.

IHU On-Line – Em um mundo não somente globalizado, mas altamente conectado por tecnologias e redes digitais, ainda faz sentido falar em democracia?
Rafael A. F. Zanatta – Acredito que ainda faz. A democracia está no corner sendo espancada, em um momento de recuo diante da tendência de crescimento das políticas autoritárias insuflada por todo esse aparato de vigilância e controle que a Internet e todos os dispositivos tecnológicos permitem. Há toda uma discussão que acontece no ativismo e na academia com a ideia de um duplo movimento, de modo que há um conjunto de ameaças massivas, que chamamos de capitalismo de vigilância, materializada na capacidade de as grandes empresas de tecnologias transformarem nossos dados em commodities. Isso produz um jogo muito perverso de interesses entre corporações e governos, que querem manter o controle populacional e estabelecer regimes de verdade. Mas, ao mesmo tempo, há um envolvimento de resistências que tentam construir a regulação social dos mercados. Uma tentativa de reestabelecer a ordem democrática.

Todo o movimento social estruturado em torno da proteção de dados pessoais e da ideia de que é preciso estabelecer uma série de limites e controles tenta empoderar a população, no sentido de saber como esses fluxos informacionais acontecem. Ainda tem a luta por direitos fortes de demarcação, de imunidade e das limitações de transpor dados de uma plataforma para outra. As empresas não podem reunir minhas escolhas e dados pessoais para montar uma nota de crédito sobre mim. Toda essa disputa é muito intensa nos últimos anos e esses novos ativismos mostram um quadro que é dinâmico. O próprio fato de Zuckerberg ser enquadrado por dois dias no Congresso, em uma bateria de perguntas de senadores e deputados (com perguntas enviadas pela população), é importante para registrar isso em ata e ter registros oficiais de que o Facebook e outras empresas cruzaram a linha da razoabilidade e que algo precisa ser feito. É uma espécie de tentativa de controle democrático dessa economia de dados que se tornou perversa.

O que acontece agora é muito importante para se observar uma nova possibilidade dos movimentos sociais que se voltam para esse problema e conseguem catalisar as organizações civis e os seus representantes na estrutura política existente para pensar, inclusive, em inovações institucionais. Atualmente o que se tem discutido é uma adaptação do que foi o painel de catástrofes ambientais há 30 anos, falando-se, então, de catástrofes digitais com centros de pesquisas no Massachusetts Institute of Technology - MIT e na Inglaterra com previsões de cenários catastróficos para daqui 50/60 anos. Por exemplo, a expansão irrefreada dos drones com capacidade de reconhecimento facial das pessoas, possibilidade de imprimir armas com impressoras 3D e um barateamento muito grande das impressoras, a produção de vídeos falsos de lideranças políticas a partir de tecnologias muito acessíveis de criação de vídeos na Internet (o que começou com a indústria pornô se transformou em um mercado político, como aquele do Barack Obama anunciando a parceria com a Coreia do Sul ). É interessante observar que há um conjunto de ativistas e lideranças políticas trabalhando com a perspectiva de prospectar os cenários mais catastróficos para já informar a população e pensar em alternativas de controle democrático dessas economias.

Moinho demoníaco

No fundo é um retorno ao Karl Polanyi , o grande autor que vai ser resgatado para entender o que está acontecendo. Um estudioso das ideias de Marx que foi muito além dele nas análises de economia de mercado, explicando que, ao mesmo tempo que ocorrem esses processos de comodificação do nosso trabalho, da terra, do dinheiro, há uma ideologia de mercado livre (chamado por ele de moinho satânico) que destrói o tecido social, acabando com nossas esperanças democráticas.

Há, sim, estratégias novas da sociedade civil, formas de combate e resistência. Ainda que seja uma briga de Davi e Golias, eu não desmereceria o papel dos pequenos e a capacidade deles de enfrentar esses movimentos históricos. Da mesma forma que há cinco anos Edward Snowden criou um momento muito rico para se pensar os processos de vigilância massiva e tentar experimentar coisas novas, para se discutir a privacidade na esfera internacional, para impulsionar novas ONGs que trabalham com proteção aos dados pessoais, estamos aproveitando esse momento para construir coisas a mais com o caso do Facebook que catalisa muitos outros problemas. O episódio coloca um ponto de interrogação para saber o que está acontecendo com os nossos processos de escolha democrática, com os mecanismos eleitorais que se tornam muito porosos e muito influenciáveis pela tecnologia da informação. É um momento riquíssimo para pesquisar, para viver e para atuar politicamente.

IHU On-Line – Mas essa relação de resgate do Polanyi parece ser uma coisa nova...
Rafael A. F. Zanatta – Sim, e a visão de socialismo do Polanyi era a de regulação social e democrática dos mercados. Nesse sentido é uma espécie de resgate a uma visão que não é a do velho socialismo, o socialismo real como tínhamos referência da experiência soviética. É interessantíssimo o momento que estamos vivendo, de resgate ao Polanyi, porque ele está sendo estudado nos vários movimentos sociais e de centros de pesquisa que estão discutindo tecnologias e sociedades; por exemplo, a Rede Latino-Americana de Estudos sobre Vigilância, Tecnologia e Sociedade - Lavits, de Campinas.

Há dois anos houve um encontro de ativistas no México e quem participou foi Shoshana Zuboff , uma pesquisadora americana que desde 1989 investiga essa nova economia política da informação, que trouxe o conceito de capitalismo de vigilância para o debate. Atualmente ela está trabalhando em um livro, que deve ser lançado em 2018, fazendo uma aproximação com os movimentos sociais contemporâneos que têm contornos ainda não muito bem identificados. Trata-se da união dos pesquisadores com os cidadãos em torno de uma pauta comum.

IHU On-Line – Do que se trata a parceria formada pelo Tribunal Superior Eleitoral - TSE e o Exército juntamente com a Polícia Federal para aferir a veracidade das notícias?
Rafael A. F. Zanatta – A parceria entre o TSE e o Centro de Inteligência da Informação do Exército foi anunciada no segundo semestre do ano passado. Em novembro de 2017, no Fórum da Internet do Rio de Janeiro, questionamos os representantes do Exército sobre essa parceria e eles confirmaram a existência. Depois, quando Gilmar Mendes , em dezembro de 2017, criou o Conselho Consultivo de Internet e Eleições, ele convidou os representantes do Exército para essas reuniões. De fato, os militares estão acoplados a essa estrutura que eles chamam de multissetorial, alegando que colocaram junto a Fundação Getulio Vargas - FGV, o Ministério Público - MP e a Agência Brasileira de Inteligência - Abin. A coalizão de ativistas e acadêmicos que lidam com direitos digitais, chamada Direito na Rede, da qual faço parte, tem acompanhado muito de perto esse processo.

O que nós temos de conclusão disso tudo? Parece que foi muito mais um jogo de mídia falar que o Exército estava participando para dar uma resposta ao problema que é global sobre notícias falsas. Uma tentativa de tentar construir e de dizer que estão fazendo algo para lidar com um problema que é mundial e que o governo Trump trouxe como caso para ser estudado pelo mundo inteiro nas eleições.

Em segundo lugar, houve uma pressão enorme da sociedade civil e das próprias empresas. É bom lembrar que tanto o Facebook quanto o Twitter são absolutamente contra a parceria entre TSE e Exército na tentativa de criar monitoramento on-line, vigilantismo em rede e a eliminação automática de conteúdo. Suponha que alguém da inteligência do Exército identifique um conteúdo falso, ele teria o poder de notificar a empresa, que tem a obrigação de remover dado conteúdo em até 24 horas. As empresas, felizmente, estão contra isso e defendem a estrutura que existe no Marco Civil, em que é necessária a avaliação do judiciário, por meio de uma denúncia de algum aspecto difamatório, claramente ofensivo ou de discurso de ódio, e se remove depois de uma decisão judicial cautelar.

Com essa pressão da sociedade civil parece que houve um recuo, de modo que eles decidiram não avançar no assunto. Sempre que eles são perguntados sobre isso, as respostas são vagas, dizendo que não tem nada definido e que estão apenas participando do comitê consultivo de eleições para acompanhar os desdobramentos da justiça eleitoral. Os membros do Ativismo na Rede ficaram bastante preocupados quando isso aconteceu em novembro passado, mas agora me parece que foi mais um jogo midiático do que algo estruturado. É provável que a justiça eleitoral tenha recuado um pouco com essa ideia de criar mecanismos prévios de verificação e retirada automática de conteúdo.

IHU On-Line – De que ordem são os problemas das fake news? Não se trata de algo mais amplo, que rompe as fronteiras do teor conteudístico?
Rafael A. F. Zanatta – O Comitê Gestor da Internet fez um seminário, na primeira quinzena de abril, que foi muito rico na discussão. Foram convidados integrantes de Centros de Pesquisas, jornalistas da mídia tradicional, jornalistas de novas mídias de fact checking, mídias alternativas, representantes das empresas, do governo, da Anatel, do Ministério de Ciência e Tecnologia, foi um debate muito aberto e plural com três dias de discussões sobre as chamadas fake news.

Foi produzida uma carta de recomendações a partir do que foi discutido. A primeira delas é que devemos abandonar o conceito de fake news, pois precisamos trabalhar com a ideia de desinformação. É importante produzir uma taxonomia de diferentes formas de desinformação. Ela pode acontecer não necessariamente com a produção de um conteúdo falso, uma notícia falsa, mas, por exemplo, com a publicação proposital de uma notícia de quatro anos atrás fora de contexto. Ou mesmo com a mobilização de vários robôs para reforçar um tipo de discurso opinativo, que tem um caráter muito agudo, desestabilizador. Há processos de desinformação que se combinam com crimes, que é o discurso de ódio. Essas diferentes formas de desinformação merecem um tratamento adequado para cada uma delas. Mais importante do que isso, a solução não passa pela via legalista, de crime, de criar novos tipos penais de criminalização, porque já existe regulação para crimes de injúria e difamação. O fenômeno novo é o entendimento de outras formas de desinformação que passam ao lado do que era tipificado.

Estratégias de enfrentamento

Algumas estratégias estão sendo recomendadas, como empoderar os cidadãos e os canais de verificação de fatos para que as pessoas sejam mais ativas na reação ao conteúdo que chega via WhatsApp, por exemplo, para que possam verificar se é falso ou não. Uma das ideias é publicar cartilhas para que as pessoas possam verificar se há embasamento, fonte, referências. Além disso, é fundamental ter mais diversidade de mídias, pois quanto mais concentrada a mídia, mais problemas de desinformação. É preciso aprovar a lei de dados pessoais e ter um controle muito rigoroso de como os dados são coletados, tratados e divulgados, porque toda a indústria de fake news se estrutura a partir desses processos ilegais de coleta de dados. É preciso, também, o envolvimento dos bibliotecários, das escolas, para falar abertamente sobre educação e formação cidadã, que é caixa de ferramentas do cidadão do século XXI para enfrentar o cenário que está posto de que existe uma guerra informacional com empresas trabalhando ilegalmente para desinformar e grupos políticos contratando esse serviço. Por fim, é preciso ter um cuidado com as regras já existentes, especialmente com o Marco Civil da Internet, para que a justiça eleitoral não crie coisas que vão confrontar o modelo de regulação civil da Internet.

É interessante também a ideia de que a responsabilização tem que ser de todo mundo, as empresas precisam fazer muito mais coisas, dar mais transparência à forma como os conteúdos são impulsionados, se há utilização de robôs ou não em suas redes, é preciso apresentar os fluxos de informação muito intensos de um determinado conteúdo que podem demonstrar um ataque informacional. As ONGs podem fazer muito mais cartilhas e projetos de envolvimento com a população, as universidades podem fazer muito mais. Não se trata de apontar o dedo na cara de um setor ou de uma pessoa e dizer “você é o responsável” para o problema da desinformação. É preciso, antes, fazer um papel muito crítico de autoavaliação dos múltiplos papéis que nós temos como profissionais e cidadãos.

Esse aspecto é muito importante para combater um tipo de resposta como “bala de prata”, capaz de resolver todos os problemas, o que é uma tendência muito grande do Congresso nacional, empolgado com a vontade de criar leis de combate às notícias falsas. Ainda tem o fato de que eles [os congressistas] se beneficiam com isso, pois minam as críticas e as sátiras contra eles e corremos um risco muito grande de silenciar vozes alternativas. Se aprovarmos um modelo jurídico que abre a possibilidade de retirada do conteúdo sob o risco de multa, o Google e o Facebook terão um incentivo muito grande para retirar do ar um material que pode até mesmo ter sido apurado. Isso é praticamente um processo duplo de restrição da liberdade e de controle. Em suma, os processos de remoção automática de conteúdo são inviáveis pelas consequências que eles produzem.

IHU On-Line – Como combater a produção das fake news sem escorregar na censura?
Rafael A. F. Zanatta – Tem uma publicação recente chamada de The science of fake news, publicada em março na Revista Science, assinada por oito dos principais acadêmicos de internet no mundo, incluindo Jonathan Zittrain que escreveu The future of Internet (Virginia: Yale University Press, 2008). Mesmo todos esses pesquisadores concordam que a resposta à pergunta é que não há respostas de como combater as fake news. O ponto principal é a necessidade de reorientar o discurso para além das fake news reconhecendo essas várias falas de desinformação e a intencionalidade dos agentes. Existe uma diferença profunda entre a página do movimento terraplanista – dos defensores de que a terra é plana – e uma notícia da Folha de São Pedro, dois dias antes das eleições, dizendo que a Marina Silva cheira cocaína. Há uma diferença profunda, porque a Folha de São Pedro tenta fazer a manchete mimetizando o formato de uma mídia tradicional e gerando uma notícia fraudulenta. Há uma intencionalidade específica, que é uma reversão monetária obtendo recursos com cliques e a produção de uma guerra informacional para destruir a base votante da Marina. Por outro lado, a página do movimento terraplanista é uma crença não fundamentada cientificamente. Não dá para colocar as duas coisas no mesmo balaio. Esta é a necessidade de separar as coisas e fazer uma taxonomia.

Se nós pudéssemos olhar com algumas variáveis, é preciso ver primeiro a forma, as notícias falsas tentam emular ou mimetizam a estrutura da mídia tradicional; a intencionalidade, o que o agente produtor está querendo com isso; e ver qual a dimensão do dano que isso causa. Esse último ponto é um dos mais difíceis de se avaliar atualmente. No mês de março a União Europeia publicou o relatório do High Level Group of Fake News. Estes estudiosos chegaram, justamente, ao problema de como dimensionar o dano causado pelos diferentes tipos de desinformação, fazendo um apelo para que as universidades e as entidades civis se unam para a criação de metodologias de coisas que podem funcionar para combater.

No Brasil temos o exemplo do Pegabot, uma plataforma desenvolvida pelo Instituto de Tecnologia e Sociedade - ITS e Instituto de Tecnologia e Equidade - ITE, que são centros de pesquisa de direito e tecnologia. Eles lançaram essa plataforma que identifica a probabilidade de um perfil no Twitter ser um robô, a partir de uma metodologia acadêmica de um paper apresentado três anos atrás. Trata-se de uma espécie de barômetro de robôs usados para manipulação eleitoral. É uma forma de usar os próprios robôs para combater robôs de manipulação. Ainda precisamos mensurar para ver se vai dar certo, inclusive pelo risco de esses robôs pegarem perfis verdadeiros e identificá-los como falsos. Estamos em um momento muito interessante para experimentar com várias soluções que não são simplesmente jurídicas, mas sociotécnicas e educacionais, e combater a formação dessa indústria específica, chamada pela revista Science de fake news outlet. Trata-se, de fato, de indústrias que foram construídas para criar notícias fraudulentas e vender esse serviço para consultorias políticas. Isso sim é uma questão a ser criminalizada. Esse tipo de empresa não pode operar, porque o objeto jurídico da empresa é ilegal, tem que ter, inclusive, um mecanismo de fiscalização tributária, de registro e de utilização do nosso direito comercial já existente para impedir que estas empresas operem. Isso é diferente de criminalizar as condutas e fiscalizar as redes sociais para ver o que está sendo publicado de verdadeiro ou falso, o que é inviável, de colocar na responsabilidade de alguém essa função de determinar a verdade. Isso é o que nós temos que evitar. Há agora um momento de pensar fora da caixinha, experimentar soluções com diferentes atores e avaliá-las a tempo. No caso do Brasil temos poucos meses pela frente para fazer esse exercício coletivo. ■

Últimas edições

  • Edição 552

    Zooliteratura. A virada animal e vegetal contra o antropocentrismo

    Ver edição
  • Edição 551

    Modernismos. A fratura entre a modernidade artística e social no Brasil

    Ver edição
  • Edição 550

    Metaverso. A experiência humana sob outros horizontes

    Ver edição