Desinformação, discurso de ódio e comunicação de ciência: o acesso à informação

15 de fevereiro de 2020, na cidade de Munique, na Alemanha, o Diretor Geral da Organização Mundial de Saúde (OMS), Tedros Adhanom Ghebreyesus, discursa na Munich Security Conference. Passam poucas semanas desde que foram detetados os primeiros casos de infeção por Covid-19, na cidade de Wuhan, na China – em Portugal, a confirmação dos primeiros casos aconteceria duas semanas mais tarde. Quase a chegar ao final da sua intervenção, o Diretor Geral da OMS diz que não se está apenas a lutar contra uma epidemia[1], mas também contra uma infodemia. Acrescenta que “as notícias falsas se espalham de forma mais rápida e fácil do que o vírus e que são igualmente perigosas”, explicando que a OMS está a trabalhar com empresas gestoras de redes sociais no sentido de combater a propagação de desinformação[2].

Se da conferência em Munique, viajarmos até aos Estados Unidos da América e recuarmos no tempo até 2016, encontramos um período eleitoral marcado pela difusão de informação falsa e de teorias da conspiração – Pizzagate é dos exemplos. Nesta altura, o termo “fake news” – muito utilizado pelo candidato Donald Trump – entra em força no nosso vocabulário, sendo que a rápida divulgação e partilha de notícias sem fundamento poderá ter influenciado o resultado eleitoral das presidenciais.

Regressados ao presente, em 2022, temos assistido à propagação de informação falsa sobre a guerra na Ucrânia. Fala-se mesmo em infowar – guerra de informação – e acredita-se que a desinformação tem assumido um papel preponderante não só no conflito, mas também no direito dos cidadãos no acesso à informação.

Numa altura em que mais de metade da população mundial usa redes sociais – sim, é muito provável que faça parte deste meio mundo – e em que as notícias falsas são mais partilhadas do que as verdadeiras[3], será que as máquinas nos podem ajudar a perceber porque determinadas informações, notícias ou fontes são não confiáveis? Se é utilizador de redes sociais, gosta de ler notícias na Internet e tem especial interesse por assuntos relacionados com ciência e tecnologia, acompanhe-nos nesta edição do Spotlight – mesmo que não seja, não goste ou não tenha, venha daí porque vai valer a pena!

O rasto da (des)informação

Sendo uma realidade, a desinformação acarreta um conjunto de desafios e consequências, representando uma ameaça para os estados democráticos. Seja através de participação em grupos de WhatsApp, seja a fazer scroll no Twitter ou a ver vídeos no YouTube, provavelmente já esteve diante de informação falsa e se, por vezes, parece fácil perceber que o que se está a ler não corresponde à realidade, noutras pode ser difícil concluir sobre a veracidade da informação. É neste contexto que investigadores do INESC TEC têm vindo a trabalhar no desenvolvimento de soluções que visam apoiar os cidadãos na identificação de desinformação.

Trata-se de um trabalho de investigação que leva mais de uma década e que começou com um projeto chamado Breadcrumbs, que pretendeu criar um protótipo de uma rede social de notícias online com navegação por identificação automática de interesses partilhados. No seguimento deste projeto, surgiu um outro – o REMINDS (Relevancy Mining Detection System), que tinha como objetivo detetar a relevância de publicações em redes sociais, através do uso de tecnologia.

“A certa altura do projeto, a equipa começou a perceber que havia muitos posts que continham informação falsa. Partiu daí a curiosidade de tentar perceber se o sistema que estávamos a desenvolver não poderia também responder a este problema. Fomos confrontados com a necessidade de identificar fake news porque essas nunca deveriam ser classificadas como relevantes”, conta Álvaro Figueira, docente na Faculdade de Ciências da Universidade do Porto (FCUP) e investigador no INESC TEC. A curiosidade em avançar com a investigação nesta área acabou por conduzir ao projeto “Detecting Fake News Automatically” e à tese de doutoramento de Nuno Guimarães – Investigador no INESC TEC – orientada por Álvaro Figueira.

Questionados sobre este percurso, Álvaro Figueira e Nuno Guimarães recordam, passo a passo, o trabalho que realizaram e as pistas que seguiram até chegar a uma solução que, ainda em desenvolvimento, esperam que possa vir a ser utilizada por todos para deteção de informação não confiável. Não é ficção, mas é possível que nas próximas linhas se sintam lado a lado com o Sherlock Holmes, a seguir o rasto da desinformação.

Confiável ou não confiável? Eis a questão

O primeiro passo, relembra Nuno Guimarães, passou pela definição de conceitos[4]. Embora, os termos fake news ou desinformação sejam habitualmente usados, na literatura parece haver ainda alguma diferença quanto à forma como se aplicam. Nesse sentido, a equipa optou por usar a expressão “informação não confiável”. “Se o nosso objetivo é desenvolver uma solução que seja implementada, dizer ao utilizador que algo é falso tem um impacto completamente diferente de dizer que algo é não confiável, por isso, decidimos ir por essa definição”, explica o investigador, acrescentando que se trata ainda de um termo mais abrangente. “Clickbait, por exemplo, não é necessariamente desinformação, mas pode ser não confiável na medida em que a pessoa acha que vai encontrar uma informação e encontra outra – não é desinformação per se”, refere.

Investigadores do INESC TEC têm vindo a trabalhar no desenvolvimento de soluções que visam apoiar os cidadãos na identificação de desinformação

Definido o conceito, o trabalho de investigação avançou para a deteção de contas, no Twitter, que propagam informação não confiável. “Seguimos duas abordagens para determinar se as contas eram confiáveis ou não confiáveis. Por um lado, criámos métricas para classificar as contas, nomeadamente, sobre o comportamento, analisando quantos posts eram confiáveis e qual a frequência com que eram publicados. Por outro, definimos métricas relacionadas com o impacto, para perceber se as contas tinham muito seguidores, se seguiam muitas outras contas, se eram verificadas, etc.”.

Segundo o investigador, as métricas consideravam também se “o conteúdo publicado provinha de fontes de notícias duvidosas já sinalizadas ou se propagavam informação falsa ou extremamente enviesada, omitindo fatores muito importantes numa história ou apresentando uma perspetiva parcial”. Através da análise, a equipa percebeu que nem todas as contas que tinham uma alta classificação nas métricas eram contas bot – criadas e a operar automaticamente. “Percebemos que existem humanos a propagar deliberadamente informação não confiável, quer seja de forma intencional ou por desconhecimento total”.

Com base nesta descoberta, e na tentativa de detetar e classificar automaticamente as contas com recurso a inteligência artificial e machine learning, a equipa considerou também o volume de informação publicada, isto é, a variabilidade. “Sugerimos que os nossos modelos de machine learning não só olhassem para a informação sobre as contas, mas também considerassem que nem todas tinham o mesmo volume de informação – há contas que propagam 100 ou 200 posts por mês e outras que propagam 100 ou 200 por dia”, avança Nuno Guimarães.

À quantidade de informação juntou-se a necessidade de olhar ao conteúdo publicado e aqui, neste ponto, a tarefa começou a tornar-se verdadeiramente desafiante, porque os modelos de machine learning testados até então, a nível mundial, mostravam-se muito eficazes a detetar notícias falsas sobre um determinado tópico ou num certo intervalo de tempo. Todavia, assim que o assunto mudava, os resultados deixavam a desejar. “No caso das eleições norte-americanas, foram treinados modelos para detetar notícias falsas relativas às eleições com 90% de precisão, mas o que entendemos foi que não podíamos analisar dessa forma se queríamos modelos que funcionassem ao longo do tempo”.

Desta forma, a equipa treinou os modelos desenvolvidos num intervalo de 30 a 60 dias e deixou-os a avaliar informação ao longo de 18 meses, numa altura em que se dá uma mudança repentina de tópico – a pandemia de Covid-19. “Quando começámos a avaliar os diferentes modelos, quer os do estado da arte, quer algumas propostas novas que fizemos, conseguimos perceber que realmente os modelos não se adaptavam quando havia uma mudança súbita do tópico, o desempenho diminuía. Ainda assim, algumas soluções que avaliámos e sobre as quais tivemos bons resultados conseguirem ser robustas perante estas mudanças de tópico”, explica Nuno Guimarães, avançando que estes resultados estão agora a ser melhorados com o objetivo de desenvolver um protótipo que as pessoas possam vir a utilizar.

Emojis, emoções e frases ou como é que as máquinas detetam informação falsa

Descrevemos, até aqui, a forma como os nossos investigadores seguiram um conjunto de pistas até chegarem a uma solução que seja capaz de detetar informação não confiável, mas, afinal de contas, como é que se treinam as máquinas para que nos consigam ajudar a perceber aquilo em que devemos ou não confiar?

“Desde que se começaram a criar sistemas para detetar notícias falsas, a ideia genérica é sempre detetar padrões no texto”, avança Álvaro Figueira, reforçando que as “técnicas usadas para detetar padrões de linguagem foram evoluindo à medida que a ciência evoluiu na capacidade de tratamento desses padrões”. Segundo o investigador, quando se começaram a fazer os primeiros trabalhos nesta área, havia aspetos como a quantidade de letras maiúsculas, a pontuação, a adjetivação, a quantidade de emojis ou de símbolos, que poderiam indicar uma notícia falsa.

Mais tarde, começaram a ser consideradas emoções, através de bibliotecas capazes de extrair sentimentos a partir de um texto. “Percebemos a existência de sequências de emoções mais típicas em notícias falsas do que outras e esta foi uma segunda geração de sistemas capazes de detetar fake news. A seguir, começou a utilizar-se a construção frásica. Também aqui há um padrão típico, que nós não sabemos, mas que as máquinas descobrem”, diz Álvaro Figueira.

Ainda assim, o investigador não deixa de apontar um conjunto de desafios que se colocam à deteção automática de desinformação. Além da estabilidade dos modelos, sobretudo face à mudança de tema (concept drift), há também uma limitação na existência de dados. “Precisamos de uma certa quantidade de notícias falsas e verdadeiras para ajudar a máquina a perceber o que é o quê e há muito menos notícias falsas do que verdadeiras. Acresce que para a máquina ser treinada é preciso explicar quais são as falsas, já que aprendizagens supervisionadas de uma forma geral funcionam melhor”, explica.

A estes obstáculos, Nuno Guimarães acrescenta um outro: “modelos muito complexos conseguem perceber padrões de linguagem, que nós humanos não conseguimos e isso é um problema, principalmente nesta área, porque para pessoas que são céticas em relação a notícias falsas se não conseguirmos explicar e se simplesmente dissermos é falso ou verdadeiro, isso não vai ser suficiente”. Neste sentido, o protótipo em desenvolvimento além da classificação como confiável ou não confiável dará aos utilizadores um conjunto de informação adicional para que possam compreender o processo de classificação. “É como se tivéssemos uma caixa negra e queremos saber o que está na caixa negra. São dadas pistas para o utilizador perceber a decisão”, reforça Álvaro Figueira.

Discurso de ódio: como pode a tecnologia ajudar na deteção

Ao longo dos últimos anos tem-se verificado um crescimento do discurso de ódio nas plataformas online. Segundo as Nações Unidas, ao contrário dos media ditos tradicionais, o discurso de ódio online é publicado e compartilhado mais facilmente, com um baixo custo e de forma anónima, colocando vários desafios aos estados democráticos. “De forma simplificada, o discurso de ódio pode ser descrito como uma comunicação ofensiva dirigida a grupos ou indivíduos com base em caraterísticas como por exemplo a religião, o género, a nacionalidade, entre muitas outras. É um problema importante e com impacto nas sociedades atuais, reconhecido ao nível dos governos nacionais, organizações internacionais, e empresas, com destaque para as que atuam no contexto digital, nomeadamente plataformas, redes sociais e meios de comunicação”, explica Sérgio Nunes.

“A motivação para a nossa investigação nesta área deve-se ao impacto individual e social que o discurso de ódio tem e por acreditarmos que a informática tem um papel central neste contexto, contribuindo para mitigar este problema.”

De acordo com o investigador do INESC TEC e docente na Faculdade de Engenharia da Universidade do Porto (FEUP), trata-se de um problema que proliferou no contexto da comunicação online sobretudo pela desintermediação da comunicação. “Com os meios digitais, a comunicação pessoal é frequentemente mediada por ferramentas e dispositivos, contribuindo para a redução da empatia pelo outro e, por outro lado, para uma ideia de anonimato e impunidade”, reforça, dando como exemplo o jornalismo online, no qual “a participação dos leitores, por exemplo em comentários ou fóruns, é cada vez mais frequente e valorizada”. Também nestes casos o discurso de ódio parece proliferar e este foi o ponto de partida para o desenvolvimento do projeto StopPropagHate.[5]

O projeto, que tinha como objetivo desenvolver uma solução para deteção automática de discurso de ódio na comunicação online, procurou estudar de que forma notícias sobre determinados temas podem ou não influenciar os comentários, potenciando o discurso de ódio e, ao mesmo tempo, contribuir com ferramentas que pudessem ajudar editores de meios de comunicação social a gerir este problema, por exemplo sinalizando discussões ou comentários individuais potencialmente problemáticos, para uma análise posterior – a ser feita por pessoas.

“A motivação para a nossa investigação nesta área deve-se ao impacto individual e social que o discurso de ódio tem e por acreditarmos que a informática tem um papel central neste contexto, contribuindo para mitigar este problema, não só através do desenho original dos sistemas, mas também na implementação de soluções e ferramentas”, reforça Sérgio Nunes. Na prática, a equipa de investigadores desenvolveu um protótipo que contempla duas ferramentas: uma destinada aos leitores, que permite estimar se determinado comentário corre o risco de ser sinalizado como contendo discurso de ódio; outra destinada às redações, que permite estimar se determinado artigo noticioso tem maior probabilidade de gerar comentários com discurso de ódio.

Ainda que reconhecida a importância de técnicas de inteligência artificial na deteção de discurso de ódio em contexto online, Sérgio Nunes ressalva que a tecnologia poderá não ser suficiente para travar o problema. “A mesma afirmação pode ter interpretações muito distintas em função do contexto onde ocorre, por exemplo uma frase neutra num contexto pode claramente configurar discurso de ódio noutro. Basta observar que mesmo avaliadores humanos não estão de acordo em muitos casos. Isto deve-se ao facto de ser um problema com forte dependência de fatores culturais, sociais, comunicacionais, entre outros. Os modelos de classificação de texto existentes não conseguem capturar esta complexidade nem todos os fatores relevantes porque simplesmente não têm essa informação”, conclui.

Da tecnologia às palavas: o papel da comunicação de ciência no combate à desinformação

O acesso à informação é apontado como crucial no combate à desinformação, tanto que as Nações Unidas decidiram que a 28 de setembro se assinala o Dia Internacional do Acesso à Informação, reforçando a relevância do tema[6]. Neste contexto, emerge a importância de comunicar de forma simples, sobretudo quando falamos de temas como os que enunciamos acima – uma pandemia, um cenário de eleições eleitorais, uma guerra – de maneira que a mensagem seja facilmente entendida por qualquer pessoa.

Na área da ciência, em particular, no caso dos resultados de Investigação e Desenvolvimento (I&D), o INESC TEC, através do seu Serviço de Comunicação (SCOM), tem levado a cabo uma série de iniciativas de comunicação de ciência, que visam dar a conhecer e informar sobre o trabalho que é feito pelo Instituto. E este pode ser um trabalho particularmente desafiante já que é necessário mergulhar no trabalho dos investigadores – nalguns casos, literalmente – pescar o que poderá ser mais relevante, e vir à tona com o fôlego suficiente para teclar palavras que todos percebam.

“O que é comunicar bem? É fazer uma mensagem chegar a muita gente? Na minha opinião, quando estamos a falar em comunicação de ciência esse não pode ser nem o único nem o mais importante requisito. Comunicar bem pressupõe que o nosso recetor entenda, de forma clara, o que nós estamos a querer dizer. Claro que isto é tudo muito mais fácil quando estamos a comunicar questões que estejam ao alcance da maior parte do cidadão comum. Quando estamos a comunicar aspetos que são mais específicos, mais técnicos, como a ciência, o processo é, naturalmente, mais complexo”, explica Joana Coelho.

A responsável pelo SCOM lembra que a ciência tem feito avançar o mundo desde há séculos e, mesmo assim, há quem a negue. “Onde é que estamos a falhar? Na minha opinião, na forma como enviamos a mensagem. O nosso papel enquanto comunicadores de ciência tem de ser o de «traduzir» a linguagem científica – utilizada pelos investigadores – para o cidadão comum, de modo que não existam dúvidas sobre o que foi feito, como foi feito, a razão pela qual foi feito e os impactos que aquele feito tem na vida das pessoas. São esses os aspetos que temos tentado trabalhar no INESC TEC”, explica, reforçando o papel que estes esforços podem ter no combate à desinformação e no acesso dos cidadãos a informação sobre resultados de I&D.

Neste contexto, Joana Coelho dá conta da estratégia que tem sido implementada pelo Instituto ao longo dos últimos anos, não só através da partilha periódica de informação com jornalistas, como na produção de conteúdos para divulgação através dos próprios canais – Website, Newsletter e Redes Socias. Recentemente, revela a responsável, houve uma aposta na assessoria de imprensa internacional, tirando partido da plataforma Alpha Galileo, através da qual são enviadas notas de imprensa para jornalistas internacionais especializados em temas relacionados com ciência e tecnologia. “A diferença entre as notas de imprensa que enviamos a nível nacional para as que enviamos via Alpha Galileo é a forma como dissecamos a informação. Ou seja, escrevemos textos mais longos, em que tentamos explicar de uma forma simples tudo o que está inerente à ciência e inovação que estamos a desenvolver”, refere.

“O que é comunicar bem? É fazer uma mensagem chegar a muita gente? Na minha opinião, quando estamos a falar em comunicação de ciência esse não pode ser nem o único nem o mais importante requisito.”

A par das divulgações direcionadas a jornalistas, juntam-se ainda apostas em formatos próprios, como é o caso desta rubrica que está a ler – o Spotlight, o podcast Science Bits ou a revista Science&Society. “Quando pensámos nesta rubrica – Spotlight – aquilo que idealizámos foi algo escrito e editado por nós e com contribuições dos nossos investigadores, onde conseguíssemos facilmente estabelecer uma relação entre a ciência e inovação que desenvolvemos e vários desafios sociais. Esta relação entre o quotidiano, a sociedade, a economia e a ciência são determinantes para fazermos com que as pessoas, de uma forma mais simples, entendam o que nós fazemos. Para além do formato escrito, todas as edições da rubrica têm ilustrações específicas sobre o tema em questão, para ir auxiliando o leitor ao longo do texto, de uma forma simples, intuitiva e esteticamente diferente da habitual fotografia que acompanha a maior parte das notícias que são publicadas”.

Tirando partido de diferentes formatos e plataformas, o INESC TEC lançou também um podcast sobre ciência e tecnologia. “Percebemos que o stress e a falta de tempo do dia-a-dia nem sempre permite que consigamos dedicar o tempo que gostávamos a ler textos longos. Percebemos também que é preciso assumir, independentemente da vida quotidiana, que há públicos diferentes e que, por isso, gostam de formatos diferentes. Foi, nesse sentido, que quisemos apostar num formato áudio, onde podemos estar a trabalhar, a conduzir, a cozinhar, a arrumar a casa, etc., e colocar uns phones e ouvir falar de ciência”, explica Joana Coelho, lembrando ainda a revista Science&Society, cuja quinta edição, dedicada à Transição Energética, foi lançada recentemente.

“É uma revista que existe em formato impresso e digital que foi criada com o intuito de divulgar a ciência à sociedade. Os artigos destinam-se não só ao cidadão comum, mas são de grande interesse para gestores, políticos e pessoal técnico que estejam envolvidos nas atividades dos setores em destaque. Até agora temos cinco edições e cada edição dedica-se a um tema de uma área de atividade do INESC TEC”, remata a responsável.

Todos os dias, antes de dormir, enquanto nos sentamos no sofá ou nos refastelamos na cabeceira da cama a fazer scroll pelas nossas redes sociais, somos, com certeza, bombardeados com informação falsa e, como vimos, pode ser difícil decifrar se o que lemos corresponde à realidade. Os últimos anos têm-nos mostrado os perigos que a desinformação coloca aos estados democráticos. A pandemia foi particularmente importante nessa questão. Sabemos que há esforços em curso, seja do ponto de vista tecnológico, seja do ponto de vista da comunicação, mas qual será o caminho? Seja qual for, há algo que parece certo: a tecnologia, a literacia e a comunicação vão fazer parte da equação.

Os investigadores mencionados nesta edição da rubrica Spotlight têm vínculo ao INESC TEC e à UP-FCUP e UP-FEUP.

 

[1] Covid-19 foi declarada pandemia em março de 2020.

[2] Intervenção do Diretor Geral da OMS na Munich Security Conference pode ser lida na íntegra em: https://www.who.int/director-general/speeches/detail/munich-security-conference; ou vista em: https://securityconference.org/en/medialibrary/asset/an-update-on-the-coronavirus-20200215-1600/.

[3] Num estudo publicado em 2018, uma equipa do MIT descobriu que no Twitter notícias falsas têm 70% mais probabilidade de serem partilhadas do que as verdadeiras. Informação disponível em: https://news.mit.edu/2018/study-twitter-false-news-travels-faster-true-stories-0308.

[4] A Comissão Europeia, por exemplo, utiliza o termo “disinformation” parta definir um conteúdo falso ou enganoso que é divulgado com a intenção de enganar ou obter ganhos económicos ou políticos, que pode causar dano; e o termo “misinformation” para classificar um conteúdo falso ou enganoso que é partilhado sem intenção prejudicial, embora as consequências da partilha possam ser prejudiciais. Mais informação sobre os conceitos em: https://digital-strategy.ec.europa.eu/en/policies/online-disinformation.

[5] O projeto deu seguimento a uma linha de investigação iniciada por Paula Fortuna, antiga investigadora do INESC TEC, no âmbito da sua dissertação de Mestrado, sob orientação de Sérgio Nunes.

[6] Os Objetivos de Desenvolvimento Sustentável (ODS) das Nações Unidas preveem a importância do acesso à informação, nomeadamente, o 12.8 e o 16.10. Mais informação sobre os ODS em: https://sdgs.un.org/goals.

PHP Code Snippets Powered By : XYZScripts.com
EnglishPortugal