Navigation path

Left navigation

Additional tools

Comissão Europeia - Comunicado de imprensa

Inteligência artificial: a Comissão avançou com os seus trabalhos sobre as orientações deontológicas

Bruxelas, 8 de abril de 2019

.

A Comissão apresentou hoje as próximas fases do processo que visa aumentar a confiança na Inteligência Artificial (IA), dando sequência aos trabalhos do grupo de peritos de alto nível.

Com base nos trabalhos do grupo de peritos independentes nomeado em junho de 2018, a Comissão lança hoje uma fase-piloto para assegurar o desenvolvimento e utilização na prática das orientações deontológicas para a IA. A Comissão convida o sector, os institutos de investigação e as autoridades públicas a testarem a lista de avaliação pormenorizada elaborada pelo grupo de peritos de alto nível, que complementa as orientações.

Os planos hoje anunciados constituem uma das metas da estratégia para a IA, de abril de 2018, que visa aumentar os investimentos públicos e privados para pelo menos 20 mil milhões de euros por ano durante a próxima década, disponibilizar mais dados, promover o talento e assegurar a confiança.

Andrus Ansip, o Vice-Presidente responsável pelo Mercado Único Digital, afirmou: «Congratulo-me com o trabalho realizado pelos nossos peritos independentes. A dimensão ética da IA não constitui um luxo nem um acessório, já que a nossa sociedade só poderá beneficiar plenamente das tecnologias se tiver confiança nas mesmas. Uma IA ética será vantajosa para todos e poderá vir a ser uma vantagem competitiva para a Europa, que estará na vanguarda de uma IA centrada no ser humano, em que as pessoas poderão confiar.»

A Comissária responsável pela Economia e Sociedade Digitais, Mariya Gabriel, acrescentou: «Hoje, demos um passo importante no sentido de uma IA ética e segura na UE. Dispomos agora de uma base sólida, baseada nos valores da UE e que decorre de um amplo e construtivo envolvimento das diversas partes interessadas, incluindo as empresas, o mundo académico e a sociedade civil. Vamos agora aplicar estes requisitos na prática e ao mesmo tempo promover um debate internacional sobre a IA centrada no ser humano.»

A IA pode trazer benefícios para uma grande variedade de sectores, como os cuidados de saúde, o consumo de energia, a segurança dos veículos automóveis, a agricultura, as alterações climáticas e a gestão dos riscos financeiros. Pode igualmente ajudar a detetar as fraudes e ameaças no domínio da cibersegurança e permitir que as autoridades policiais possam combater mais eficazmente a criminalidade. No entanto, a IA coloca também novos desafios para o futuro do trabalho e levanta questões de ordem jurídica e ética.

A Comissão irá adotar uma abordagem em três fases: estabelecimento dos requisitos essenciais para uma IA fiável, lançamento de uma fase-piloto em grande escala para recolher as reações das partes interessadas e obtenção de um consenso internacional sobre uma IA centrada no ser humano.

1. Sete elementos essenciais para assegurar uma IA fiável

Para ser fiável, a IA deve respeitar toda a legislação e regulamentação aplicáveis, bem como uma série de requisitos: as listas de avaliação específicas têm o objetivo de ajudar a verificar a aplicação de cada um dos requisitos essenciais:

  • Iniciativa e controlo por humanos: os sistemas de IA devem ser conducentes a sociedades equitativas, apoiando a iniciativa humana e os direitos fundamentais sem diminuir, limitar nem orientar indevidamente a autonomia humana.
  • Robustez e segurança: uma IA que assegure confiança exige que os algoritmos sejam suficientemente seguros, fiáveis e robustos para resolver os erros ou incoerências durante todas as fases do ciclo de vida dos sistemas de IA.
  • Privacidade e governação dos dados: os cidadãos devem ter pleno controlo sobre os seus próprios dados, que não deverão ser utilizados para os prejudicar ou discriminar.
  • Transparência: a rastreabilidade dos sistemas de IA deve ser assegurada.
  • Diversidade, não discriminação e equidade: os sistemas de IA devem ter em conta todas as capacidades, competências e exigências das pessoas e garantir a acessibilidade.
  • Bem-estar societal e ambiental: os sistemas de IA devem ser utilizados para encorajar uma evolução social positiva e reforçar a sustentabilidade e a responsabilidade ecológica.
  • Responsabilização: devem ser criados mecanismos para assegurar a responsabilidade e a responsabilização em relação aos sistemas de IA e às suas consequências.

2. Piloto em grande escala com os parceiros

No verão de 2019, a Comissão lançará uma fase-piloto que contará com a participação de um vasto leque de partes interessadas. As empresas, as administrações públicas e as organizações podem desde já manifestar o seu interesse em aderir à Aliança Europeia para a IA, caso em que receberão uma notificação quando o projeto-piloto for lançado. Os membros do Grupo de Peritos de Alto Nível em IA, pela sua parte, ajudarão a apresentar e a explicar as orientações às partes interessadas relevantes nos Estados-Membros.

3. Estabelecimento de um consenso internacional sobre uma IA centrada no ser humano

A Comissão defenderá esta abordagem da ética da IA à escala mundial, uma vez que as tecnologias, os dados e os algoritmos não conhecem fronteiras. Para o efeito, a Comissão reforçará a cooperação com parceiros que partilham as mesmas ideias, como o Japão, o Canadá ou Singapura, e continuará a desempenhar um papel ativo nos debates e iniciativas internacionais, nomeadamente ao nível do G7 e do G20. A fase-piloto contará também com a participação de empresas de outros países e de organizações internacionais.



Próximas etapas

Os membros do grupo de peritos em IA apresentarão os seus trabalhos em pormenor por ocasião do 3.º Dia Digital, em Bruxelas, em 9 de abril. Na sequência da fase-piloto, o grupo de peritos em IA reexaminará no início de 2020 as listas de avaliação respeitantes aos requisitos essenciais, com base nas reações recebidas. Partindo dessa análise, a Comissão avaliará depois os resultados e apresentará propostas para as próximas etapas.

Além disso, e a fim de assegurar o desenvolvimento ético da IA, a Comissão irá, até ao outono de 2019: lançar uma série de redes de centros de excelência em investigação no domínio da IA; começar a criar redes de polos de inovação digital; iniciar debates com os Estados-Membros e as partes interessadas para criar e aplicar um modelo que permita a partilha de dados e a melhor utilização possível dos espaços de dados comuns.

 

Contexto

A Comissão está a facilitar e a reforçar a cooperação em matéria de IA em toda a UE, a fim de aumentar a sua competitividade e assegurar a confiança com base nos valores da UE. Na sequência da sua estratégia europeia em matéria de IA, publicada em abril de 2018, a Comissão criou o Grupo de Peritos de Alto Nível em IA, composto por 52 peritos independentes em representação do mundo académico, da indústria e da sociedade civil. Em dezembro de 2018, o grupo publicou um primeiro projeto de orientações deontológicas, que foi seguido de uma consulta das partes interessadas e de reuniões com representantes dos Estados-Membros para recolher as respetivas contribuições. Este projeto surgiu na sequência do plano coordenado com os Estados-Membros para promover o desenvolvimento e a utilização da IA na Europa, apresentado em dezembro de 2018.

 

Para mais informações

Comunicação: «Aumentar a confiança numa inteligência artificial centrada no ser humano»

Orientações deontológicas para a IA

Ficha informativa sobre a inteligência artificial

Grupo de Peritos de Alto Nível em IA

Aliança Europeia para a IA

Inteligência artificial: uma perspetiva europeia

AI Watch 

IP/19/1893

Contactos para a imprensa:

Perguntas do público em geral: Europe Direct pelo telefone 00 800 67 89 10 11 ou por e-mail


Side Bar