Para Miriam Santos, os “dados devem ser vistos como um objeto social” – e a sua criação responsável esteve em destaque no ERCIM Forum Beyond Compliance 2025

A edição de 2025 do Forum on Digital Ethics in Research Beyond Compliance, organizado no âmbito do ERCIM será uma ocasião de boa memória para Miriam Seoane Santos. Para além de ter recebido o prémio Cor Baayen do ERCIM, anunciado semanas antes, a investigadora do INESC TEC participou ainda como oradora numa sessão intitulada “Data altruism and open resources” – da qual resultaram muitas reflexões sobre o papel da Inteligência Artificial nas diferentes esferas do quotidiano. 

Desde que, a meio do curso de Engenharia Biomédica, Miriam Seoane Santos começou a interessar-se pelas características dos dados usados para treinar os modelos de Inteligência Artificial (IA), que a investigadora do INESC TEC identifica e estuda problemas na qualidade dos dados que “alimentam” estas ferramentas. Estes problemas podem ser atribuídos às características próprias dos domínios dos dados ou a outros fatores como decisões deliberadas, erro humano, erros de software/hardware ou operacionais, entre outros. 

No entanto, com os dados gerados e disponibilizados, a única hipótese que resta não só a Miriam, como a outros investigadores que dependam de dados pré-existentes, é ter espírito crítico na mitigação das imperfeições que surgem nesses dados e na interpretação dos resultados obtidos. 

É preciso, por isso, recuar. Analisar o processo a montante, desde a geração e recolha de dados – uma fase que deve ser encarada como tendo valor em si própria e não apenas como um passo necessário no desenvolvimento de IA, já que o impacto de decisões iniciais menos responsáveis terá impacto em todo o desenvolvimento da investigação. Foi esta a reflexão que Miriam Seoane Santos levou até ao ERCIM Forum Beyond Compliance, em Rennes, França, no qual participou como oradora, com uma intervenção intitulada “Responsible by design: building trust in open and shared data”. 

“Tentei desafiar a audiência a pensar na etapa de geração de dados, enquanto processo que tem de ser transparente, explicável, colaborativo, auditável e capaz de ser comunicado eficientemente e compreendido por todas as pessoas que a solução de IA possa afetar”, explica a investigadora.  

Ao contrário do que acontece com os standards de partilha de software – já muito consolidados –, as regras estabelecidas para a disponibilização de dados ainda estão bastante genéricas. No caso da investigação, uma visão “utilitária” deste recurso faz com que o foco esteja muitas vezes em aspetos “práticos da partilha”, como é o caso das licenças, formatos e acesso, e também de “utilização”, como a documentação básica de estrutura e quantidade, entre outros. Miriam dá como exemplo o Labeled Faces in the Wild, um benchmark muito popular para treinar modelos de visão computacional, mas que, como se viria a verificar, perpetuava resultados discriminatórios para algumas faces – sobretudo em mulheres e em pessoas com a tez mais escura. “Este conjunto de dados estava publicamente disponível, mas não era representativo. Era ‘aberto’, mas não ‘confiável’ – pelo menos para algumas aplicações”, contextualiza a investigadora do INESC TEC. 

Todos os envolvidos na geração, recolha e utilização de dados têm, por isso, uma responsabilidade acrescida: “a de olhar para os dados com um objeto social e procurar ao máximo contextualizá-los”, aponta Miriam. Para isso, devem ser consideradas informações como a origem dos dados, o motivo pelo qual foram recolhidos, as premissas que lhe estão subjacentes, a intenção para a sua utilização e as suas limitações, entre outras questões. Não menos importante, destaca a investigadora, é “conseguir comunicar e documentar essas propriedades e decisões de forma clara para todos os envolvidos e para a comunidade no qual o sistema a ser desenvolvido poderá ser integrado”. 

A intervenção de Miriam nos eventos do ERCIM – ocasião na qual recebeu o Prémio Cor Baayen 2025 – valeu-lhe um “feedback muito positivo” por parte dos participantes, com a investigadora a ser “desafiada pelas ideias que foram discutidas”. “Algo que achei particularmente curioso foi perceber que as preocupações de peritos de áreas diferentes são partilhadas, mas que não há ‘respostas certas’. Em exercícios relativamente ‘simples’ tínhamos opiniões bastante distintas: uns mais cautelosos, outros mais audazes, todos com mais perguntas do que respostas.” No fim, foram várias as mensagens que retirou, para as diferentes áreas da sua vida. Enquanto pessoa, ficou a refletir “mais profundamente nos desafios que a IA traz à sociedade em aspetos como o livre arbítrio, a responsabilidade, a degradação cognitiva, o envolvimento nos assuntos comunitários”, enumera. Enquanto docente, Miriam, reconhece que a sessão a fez “pensar sobre a responsabilidade de ‘contrariar’ certos efeitos da utilização de IA na educação dos alunos”. Finalmente, para o papel de investigadora, a sessão foi o mote para análises sobre a “capacidade, ainda que me possa parecer insignificante por vezes, de contribuir para uma maior literacia da IA e discussão de certos aspetos”. 

A importância da literacia no caminho para a ética digital 

Todo o trabalho que Miriam Santos tem desenvolvido no sentido de promover uma IA mais responsável está intrinsecamente ligado a esforços da investigadora de incentivar a implementação ou desenvolvimento “de uma ética digital”. A “literacia”, aponta, está no cerne da questão, com a nova era da IA a precisar de novos profissionais com um “perfil multifacetado”. “Precisamos de legislar, pelo que precisamos que a área do direito seja capacitada para compreender certos conceitos e limitações técnicas. Precisamos de reformas na educação, para integrar a utilização da IA de uma forma benéfica para os alunos (que serão futuros profissionais de várias áreas). Precisamos de combinar inovação com responsabilidade e sustentabilidade.”

Portugal vence pela primeira vez prémio internacional de ciência de computadores – e a galardoada é investigadora do INESC TEC

Tendo como ponto de partida a participação no ERCIM e ciente da necessidade de capacitação neste domínio (e das lacunas ao nível dos recursos adaptados a cada público-alvo), Miriam lançou recentemente uma plataforma – Pratical Responsible AI – que visa “abrir” o acesso “à educação em tópicos relacionados com IA”. Nesta fase, os conteúdos são partilhados com a Unidade Curricular de Inteligência Artificial e Sociedade do Mestrado em Inteligência Artificial das Faculdades de Ciências (FCUP) e de Engenharia (FEUP) da Universidade do Porto. O objetivo, aponta a investigadora, é “permitir a profissionais da área de IA aprenderem mais sobre áreas nas quais não são especialistas, tanto áreas técnicas como legais, por exemplo.” Outro público-alvo identificado são os profissionais de “outras áreas” que pretendam “explorar os conceitos fundamentais da IA Responsável e pensar em como eles podem ‘encaixar’ em conceitos das suas áreas” – para além da disponibilização de recursos que podem ser implementados em workshops ou sessões de formação com equipas multidisciplinares, como é o caso da exposição de Miriam no ERCIM Forum Beyond Compliance 2025. 

 A investigadora mencionada na notícia tem vínculo ao INESC TEC e à Faculdade de Ciências da Universidade do Porto.

PHP Code Snippets Powered By : XYZScripts.com
EnglishPortugal