Foi alcançado no dia 8 de dezembro um acordo político alcançado o Parlamento Europeu e o Conselho sobre o Regulamento Inteligência Artificial, que a Comissão havia proposto em abril de 2021.
A abordagem europeia para uma IA fiável
As novas regras, que terão por base uma definição de inteligência artificial orientada para o futuro, serão aplicadas diretamente e da mesma forma em todos os Estados-Membros, de acordo com uma abordagem baseada nos riscos.
Risco mínimo: a grande maioria dos sistemas de inteligência artificial insere-se nesta categoria. As aplicações de risco mínimo, como sejam os sistemas que formulam recomendações ou os filtros de correio eletrónico não solicitado com base na IA, estarão isentas de quaisquer obrigações, uma vez que implicam um risco mínimo (ou mesmo nulo) para os direitos e a segurança dos cidadãos. Ainda assim, as empresas podem, a título voluntário, comprometer-se a adotar códigos de conduta adicionais para esses sistemas de IA.
Risco elevado: os sistemas de IA identificados como sendo de alto risco deverão cumprir rigorosos requisitos, nomeadamente no que respeita aos sistemas de atenuação dos riscos, à qualidade dos conjuntos de dados utilizados, ao registo das atividades, à apresentação de documentação pormenorizada, ao fornecimento de informações claras aos utilizadores, ao controlo humano, bem como a um elevado nível de robustez, precisão e cibersegurança. Ambientes de testagem da regulamentação facilitarão uma inovação responsável e o desenvolvimento de sistemas de IA conformes.
Exemplos de sistemas de IA de alto risco incluem determinadas infraestruturas críticas, por exemplo nos domínios da água, do gás e da eletricidade; dispositivos médicos; sistemas utilizados para determinar o acesso a estabelecimentos de ensino ou utilizados para efeitos do recrutamento de pessoal; ou certos sistemas usados nos domínios da aplicação da lei, do controlo das fronteiras, da administração da justiça e dos processos democráticos. Os sistemas de identificação biométrica, categorização biométrica e reconhecimento de emoções são também considerados de alto risco.
Risco inaceitável: serão proibidos os sistemas de inteligência artificial que constituam uma ameaça clara aos direitos fundamentais das pessoas, tais como sistemas e aplicações de IA que manipulem o comportamento humano para iludir o livre arbítrio dos utilizadores (por exemplo, brinquedos para menores com assistência de voz que encoraje comportamentos perigosos), sistemas que permitam uma «classificação social» por parte dos governos ou das empresas e determinadas aplicações de policiamento baseadas em previsões. Serão também proibidas determinadas utilizações de sistemas biométricos, tais como sistemas de reconhecimento de emoções no local de trabalho, de categorização social ou de identificação biométrica remota em tempo real para efeitos da aplicação da lei em espaços acessíveis ao público (com exceções restritas).
Risco específico em matéria de transparência: sempre que utilizarem sistemas de IA, como robôs de conversação, os utilizadores deverão estar cientes de que estão a interagir com uma máquina. As falsificações profundas e outros conteúdos gerados pela IA terão de ser identificados como tal e os utilizadores terão de ser informados sempre que sejam utilizados sistemas de categorização biométrica ou de reconhecimento de emoções. Além disso, os fornecedores terão de conceber sistemas de modo a que os conteúdos sintéticos de áudio, vídeo, texto ou imagens sejam marcados num formato legível por dispositivos automáticos e sejam reconhecíveis como criados ou manipulados artificialmente.
Coimas
As empresas que não cumpram as regras serão multadas. As coimas poderão cifrar-se em 35 milhões de EUR ou 7 % do volume de negócios anual mundial (consoante o que for mais elevado) por infrações relacionadas com aplicações de IA proibidas, 15 milhões de EUR ou 3 % por incumprimento de outras obrigações e 7,5 milhões de EUR ou 1,5 % por fornecimento de informações incorretas. Estão previstos limites máximos mais proporcionais para coimas para as PME e as empresas em fase de arranque em caso de infração ao Regulamento Inteligência Artificial.
IA de uso geral
O Regulamento Inteligência Artificial introduz regras específicas para modelos de IA de finalidade geral que assegurarão a transparência ao longo da cadeia de valor. No caso dos modelos muito potentes suscetíveis de acarretar riscos sistémicos, serão impostas obrigações vinculativas adicionais relacionadas com a gestão dos riscos e a monitorização de incidentes graves, a avaliação de modelos e a realização de testes antagónicos. Estas novas obrigações serão impostas através de códigos de boas práticas elaborados pela indústria, pela comunidade científica, pela sociedade civil e por outras partes interessadas, em colaboração com a Comissão.
Relativamente à governação, as autoridades nacionais competentes em matéria de fiscalização do mercado supervisionarão a aplicação das novas regras a nível nacional, enquanto um novo Serviço Europeu da Inteligência Artificial da Comissão Europeia assegurará a sua coordenação a nível europeu. O novo Serviço IA supervisionará também a aplicação e o cumprimento das novas regras relativas aos modelos de IA de uso geral. Juntamente com as autoridades nacionais de fiscalização do mercado, o Serviço IA será o primeiro organismo a nível mundial a aplicar regras vinculativas em matéria de IA, sendo por isso expectável que se torne uma referência internacional. Um painel científico de peritos independentes desempenhará um papel central no que concerne os modelos de uso geral, emitindo alertas sobre riscos sistémicos e contribuindo para classificar e testar os modelos.
Próximas etapas
O acordo político está agora sujeito à aprovação formal do Parlamento Europeu e do Conselho e entrará em vigor 20 dias após a sua publicação no Jornal Oficial. O Regulamento IA será aplicável dois anos depois da sua entrada em vigor, com exceção de algumas disposições específicas, como as proibições, aplicáveis após seis meses, e as regras relativas à IA de finalidade geral, aplicáveis após 12 meses.
A fim de cobrir este período transitório que precede a aplicação geral do regulamento, a Comissão lançará um Pacto para a IA, no âmbito do qual reunirá criadores de IA da Europa e de todo o mundo, que, a título voluntário, se comprometerão a aplicar as principais obrigações do Regulamento Inteligência Artificial dentro dos prazos legais.
A fim de promover regras para uma IA fiável a nível internacional, a União Europeia continuará a trabalhar em fóruns como o G7, a OCDE, o Conselho da Europa, o G20 e a ONU. Recentemente, a Comissão apoiou o acordo dos líderes do G7 sobre princípios orientadores internacionais em matéria de IA, no âmbito do processo de Hiroshima para a inteligência artificial, e um código de conduta voluntário para os criadores de IA.
Contexto
Há já vários anos que a Comissão tem vindo a facilitar e a reforçar a cooperação em matéria de inteligência artificial em toda a UE, com vista a aumentar a sua competitividade e a criar um clima de confiança assente nos valores da UE.
Na sequência da publicação, em 2018, da Estratégia Europeia para a inteligência artificial, e após extensa consulta das partes interessadas, o Grupo de Peritos de Alto Nível em Inteligência Artificial (GPAN) elaborou, em 2019, orientações para uma inteligência artificial fiável e, em 2020, uma lista de avaliação para uma inteligência artificial fiável. Paralelamente, foi publicado, em dezembro de 2018, no âmbito de um compromisso conjunto com os Estados-Membros, o primeiro Plano Coordenado para a Inteligência Artificial.
O Livro Branco sobre a IA da Comissão Europeia, publicado em 2020, definiu uma visão clara da inteligência artificial na Europa enquanto ecossistema de excelência e confiança, tendo lançado as bases para o acordo político de hoje. A consulta pública relativa ao Livro Branco atraiu uma ampla participação a nível mundial. O Relatório sobre as implicações em matéria de segurança e de responsabilidade decorrentes da inteligência artificial, da Internet das coisas e da robótica, que acompanha o Livro Branco, concluiu que a atual legislação em matéria de segurança dos produtos contém uma série de lacunas que deverão ser abordadas, nomeadamente, no quadro da Diretiva Máquinas.
A investigação independente e baseada em dados concretos do Centro Comum de Investigação (JRC) tem sido fundamental para definir e assegurar a aplicação eficaz das políticas da UE em matéria de IA. Graças aos seus trabalhos rigorosos de investigação e análise, o JRC apoiou o desenvolvimento do Regulamento Inteligência Artificial, contribuindo para a terminologia da IA, a classificação dos riscos e os requisitos técnicos e participando na elaboração em curso de normas harmonizadas.
Para mais informações:
Novas regras em matéria de inteligência artificial — Perguntas e respostas (atualização disponível brevemente)
Novas regras em matéria de inteligência artificial – ficha informativa
Plano coordenado sobre a inteligência artificial
Regulamento relativo às máquinas e suas componentes e acessórios
Regras de responsabilidade no domínio da inteligência artificial
Centro Europeu para a Transparência dos Algoritmos, Centro Comum de Investigação
Fontes: Comunicado da Comissão Europeia de 14.11.2024, disponível aqui.