Edição online semanal
 
Sexta-feira 16 de Novembro de 2018  
Notícias e Opnião do Concelho de Almeirim de Portugal e do Mundo
 

Resolver o Quebra-Cabeças da Desinformação

13-07-2018 - Kelly Born

Desde que as eleições presidenciais dos EUA, em Novembro de 2016, sublinharam a vulnerabilidade dos canais digitais a fornecedores de “notícias falsas” (NdT: no original, fake news), o debate sobre o modo de contrariar a desinformação não morreu. Percorremos um longo caminho nos oito meses desde que executivos das empresas Facebook, Google e Twitter compareceram perante o Congresso para responderem a perguntas sobre o modo como fontes russas exploraram as suas plataformas para influenciar as eleições. Mas se há uma coisa que a busca de soluções clarificou, é que não existem soluções mágicas.

Em vez de uma solução geral, são necessárias medidas que abordem o problema de vários ângulos. O ecossistema moderno da informação é como um cubo de Rubik, em que é necessário um movimento diferente para “resolver” cada quadrado individual. Quando falamos da desinformação digital, devemos considerar pelo menos quatro dimensões.

Primeiro,   quem   partilha a desinformação? A desinformação difundida por intervenientes estrangeiros pode ser tratada de maneira muito diferente – tanto em termos jurídicos como normativos – da desinformação difundida pelos cidadãos, especialmente nos Estados Unidos, com as suas protecções inigualáveis da liberdade de expressão e regras relativamente rigorosas sobre interferências estrangeiras.

Nos EUA, os casos menos sofisticados de intervenção estrangeira podem ser abordados com um misto de processamento em linguagem natural e de técnicas de geolocalização que identifiquem os intervenientes que trabalhem a partir do exterior do país. Nos casos em que falhem as alterações ao nível das plataformas, podem aplicar-se intervenções governamentais mais amplas, como sanções genéricas.

Segundo,   porque   está a ser partilhada a desinformação? A “má informação” – informação incorrecta que é difundida involuntariamente – é bastante diferente da desinformação ou da propaganda, que são deliberadamente difundidas. Evitar que intervenientes bem-intencionados partilhem informações falsas inconscientemente pode ser conseguido, pelo menos de forma parcial, através de campanhas para a literacia noticiosa ou de iniciativas de verificação de factos. Impedir que intervenientes prejudiciais partilhem propositadamente essas informações é mais complicado, e depende dos seus objectivos específicos.

Por exemplo, para aqueles que são motivados pelo lucro, como os agora infames adolescentes Macedónios que ganharam milhares de dólares com a gestão de   websites   de “notícias falsas”, novas políticas publicitárias que desestabilizem os modelos de receitas podem ajudar. Mas essas políticas não impedirão as pessoas que difundam a desinformação por motivos políticos ou sociais. Se essas pessoas estiverem integradas em redes organizadas, as intervenções terão de desestabilizar toda a rede para serem eficazes.

Terceiro,   como   é partilhada a desinformação? No caso da partilha de conteúdos através das redes sociais, poderão ser suficientes as alterações às políticas das plataformas e/ou às regulamentações governamentais. Mas essas alterações deverão ser específicas.

Por exemplo, para impedir a utilização de   bots   na amplificação artificial de conteúdos, as plataformas poderão obrigar que os utilizadores revelem as suas verdadeiras identidades (embora isso possa ser problemático em regimes autoritários, onde o anonimato protege os defensores da democracia). Para limitar o microdireccionamento sofisticado (a utilização de dados demográficos e de consumidores para prever os interesses e comportamentos individuais, de modo a influenciar as suas ideias ou acções) as plataformas poderão ter de alterar as suas políticas de privacidade e de partilha de dados. Por exemplo, em vez de proporcionarem aos anunciantes a oportunidade de acederem a 2300 prováveis “Pessoas que odeiam Judeus” por apenas 30 dólares, as plataformas deverão – e, em determinados casos, já o fazem – divulgar os destinatários de anúncios políticos, proibir determinados critérios de direccionamento, ou limitar o tamanho mínimo de um determinado grupo-alvo.

Isto é uma espécie de corrida ao armamento. Os intervenientes mal-intencionados contornarão rapidamente quaisquer alterações implementadas pelas plataformas digitais. Novas técnicas – como a utilização da   blockchain para ajudar a autenticar fotografias originais – serão continuamente necessárias. Mas há poucas dúvidas de que as plataformas digitais estejam mais bem equipadas que os reguladores governamentais para adaptarem regularmente as suas políticas.

Porém, as plataformas digitais não conseguem gerir sozinhas a desinformação, sobretudo porque, de acordo com algumas estimativas, as redes sociais só são responsáveis por cerca de 40% do tráfego para os sítios de “notícias falsas” mais significativos, sendo que os restantes 60% chegam de forma “orgânica” ou através das “redes ocultas” (como por mensagens ou   e-mails   trocados entre amigos). Estes caminhos são mais difíceis de gerir.

A dimensão final, e talvez mais importante, do quebra-cabeças da desinformação é:   o que   está a ser partilhado? Os especialistas tendem a concentrar-se em conteúdos inteiramente “falsos”, que são mais fáceis de identificar. Mas as plataformas digitais possuem naturalmente incentivos para restringir esses conteúdos, basicamente porque as pessoas não querem expor-se ao ridículo de partilhar histórias falsas.

As pessoas, contudo, gostam de ler e de partilhar informações que estejam alinhadas com as suas perspectivas; e gostam ainda mais se isso desencadear emoções fortes, particularmente a indignação. Como os utilizadores se envolvem intensamente com este tipo de conteúdos, as plataformas digitais têm um incentivo para exibi-los.

Estes conteúdos não são apenas polarizadores; são frequentemente enganosos e incendiários, e há sinais de que podem comprometer o discurso democrático construtivo. Mas onde se traça a fronteira entre o desacordo perigoso baseado na distorção e o debate político vigoroso motivado por visões conflituantes do mundo? E quem deverá traçar essa fronteira, caso a mesma deva ser traçada?

Mesmo se estas questões éticas forem resolvidas, a identificação de conteúdos problemáticos em grande escala envolve desafios práticos importantes. Muitos dos exemplos mais preocupantes de desinformação têm-se concentrado não em eleições ou candidatos específicos, mas na exploração de divisões sociais, por exemplo ao longo de fronteiras raciais. E, frequentemente, não são adquiridos. Como consequência, não seriam resolvidos pelas novas regras sobre a publicitação de campanhas, como a Lei dos Anúncios Honestos, confirmada tanto pelo Facebook como pelo Twitter.

Se as soluções para a desinformação não são claras nos EUA, a situação é ainda mais delicada no contexto internacional, onde o problema é ainda mais descentralizado e opaco – uma outra razão para a impossibilidade de uma solução global e abrangente.

Mas embora cada medida só resolva uma questão parcelar – a melhoria das políticas de anúncios pode resolver 5% do problema, e diferentes políticas de microdireccionamento podem resolver 20% – a sua consideração conjunta pode garantir uma melhoria. O resultado final será um ambiente de informação que, embora imperfeito, inclua apenas uma quantidade relativamente pequena de conteúdos problemáticos – algo que não pode ser evitado em sociedades democráticas que valorizem a liberdade de expressão.

As boas notícias é que os especialistas poderão agora aceder a dados do Facebook sob protecção de privacidade, para ajudá-los a compreender (e a melhorar) o impacto da plataforma sobre as eleições – e as democracias – em todo o mundo. Esperamos que as restantes plataformas digitais – como o Google, o Twitter, o Reddit, e o Tumblr – sigam esse exemplo. Com as percepções correctas, e um compromisso com a mudança fundamental, mesmo que incremental, o impacto social e político das plataformas digitais pode ser tornado seguro – ou, pelo menos, mais seguro – para as democracias ameaçadas de hoje.

KELLY BORN

Kelly Born é programadora oficial da Madison Initiative na William and Flora Hewlett Foundation.

 

Voltar 


Subscreva a nossa News Letter
CONTACTOS
COLABORADORES
 
Eduardo Milheiro
Cordenador
Marta Milheiro
   
© O Notícias de Almeirim : All rights reserved - Site optimizado para 1024x768 e Internet Explorer 5.0 ou superior e Google Chrome