Confiança, a alma da abordagem europeia para os dados e a IA

Por Vasco Dias, Encarregado de Proteção de Dados

À boleia do comentário mais recente deixado neste mesmo espaço pelo Daniel Vasconcelos, do nosso Serviço de Apoio ao Licenciamento, a propósito do valor da confiança na sociedade e nos negócios, venho somar “os meus dois centavos” sobre o tema, aludindo, agora, à importância daquele valor no contexto de uma nova abordagem europeia para a economia dos dados e inteligência artificial.

Os atuais tempos de pandemia vieram, uma vez mais, chamar a nossa atenção para a importância do acesso a dados em tempo útil para o progresso da ciência, bem como para o desenho de políticas públicas informadas e eficazes; e são já muito poucos aqueles que duvidam dos méritos e benefícios que todos poderemos colher dos rápidos desenvolvimentos que as áreas da inteligência artificial, do machine learning e do big data têm conhecido nos últimos anos. Mas estes desenvolvimentos suscitam, também, uma profunda reflexão acerca das implicações éticas, legais e sociais de certas utilizações daquelas tecnologias.

A discussão não é alheia ao objetivo da construção e consolidação de um mercado único digital e dos dados, que apenas poderá construir-se e consolidar-se no espaço da União Europeia se for possível confiar que este se fará tendo por base o interesse público e valores europeus de respeito pelas liberdades e os direitos fundamentais dos cidadãos. Transparência, confiança, explicabilidade e lealdade nos tratamentos de dados são, assim, termos chave, correspondendo a valores e princípios éticos essenciais, de cujo cumprimento dependerá, largamente, o sucesso de uma inteligência artificial europeia, sustentável e desenhada ao serviço do humano.

Uma visão europeia sobre o tema está presente em documentos da maior relevância, como o “Livro Branco da Comissão Europeia sobre a Inteligência Artificial – uma abordagem europeia virada para a excelência e a confiança” ou a comunicação “Uma estratégia europeia para os dados”. Estes documentos realçam a necessidade de a EU cumprir a ambição de se erigir num exemplo de sociedade habilitada a tomar melhores decisões baseadas em dados – tanto nas empresas, como no setor público –, “apoiando-se num quadro jurídico sólido em termos de proteção de dados, direitos fundamentais, segurança e cibersegurança”.

Mas quero, também, destacar o frutuoso trabalho do Grupo Independente de Especialistas de Alto Nível em Inteligência Artificial, nomeado pela Comissão Europeia, que resultou num importante conjunto de “Orientações éticas para uma IA de Confiança”, defendendo o objetivo de, através de meios técnicos e não técnicos, assegurar que o desenvolvimento, a implantação e a utilização de sistemas de IA satisfazem os “requisitos para uma IA de confiança: 1) ação e supervisão humanas; 2) solidez técnica e segurança; 3) privacidade e governação dos dados; 4) transparência; 5) diversidade, não discriminação e equidade; 6) bem-estar ambiental e societal; 7) responsabilização”.

O INESC TEC cedo se associou ao piloto relativo à implementação destas orientações, mas o seu envolvimento neste importante debate reflete-se, igualmente, no código de ética entretanto preparado, na atividade do seu grupo de proteção de dados, ou na investigação conduzida em destacados projetos europeus da sua coordenação, ou em que tem participando, servindo de exemplo projetos recentes como o Human AI e TRUST AI, cujos títulos não poderiam ser mais elucidativos dos seus âmbitos e propósitos.

PHP Code Snippets Powered By : XYZScripts.com
EnglishPortugal