RELATÓRIO sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da união
22.5.2023 - (COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD)) - ***I
Comissão do Mercado Interno e da Proteção dos Consumidores
Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
Relatores: Brando Benifei, Ioan-Dragoş Tudorache
(Comissões conjuntas – artigo 58.º do Regimento)
Relatores de parecer das comissões associadas, nos termos do artigo 57.º do Regimento:
Eva Maydell, Comissão da Indústria, da Investigação e da Energia
Marcel Kolaja, Comissão da Cultura e da Educação
Axel Voss, Comissão dos Assuntos Jurídicos
- PROJETO DE RESOLUÇÃO LEGISLATIVA DO PARLAMENTO EUROPEU
- EXPOSIÇÃO DE MOTIVOS
- PARECER DA COMISSÃO DA INDÚSTRIA, DA INVESTIGAÇÃO E DA ENERGIA
- PARECER DA COMISSÃO DA CULTURA E DA EDUCAÇÃO
- PARECER DA COMISSÃO DOS ASSUNTOS JURÍDICOS
- PARECER DA COMISSÃO DO AMBIENTE, DA SAÚDE PÚBLICA E DA SEGURANÇA ALIMENTAR
- PARECER DA COMISSÃO DOS TRANSPORTES E DO TURISMO
- PROCESSO DA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
- VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
PROJETO DE RESOLUÇÃO LEGISLATIVA DO PARLAMENTO EUROPEU
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da união
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
(Processo legislativo ordinário: primeira leitura)
O Parlamento Europeu,
– Tendo em conta a proposta da Comissão ao Parlamento Europeu e ao Conselho (COM(2021)0206),
– Tendo em conta o artigo 294.º, n.º 2, e os artigos 16.º e 114.º do Tratado sobre o Funcionamento da União Europeia, nos termos dos quais a proposta lhe foi apresentada pela Comissão (C9‑0146/2021),
– Tendo em conta o artigo 294.º, n.º 3, do Tratado sobre o Funcionamento da União Europeia,
– Tendo em conta o artigo 59.º do seu Regimento,
– Tendo em conta as deliberações conjuntas da Comissão do Mercado Interno e da Proteção dos Consumidores e da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, nos termos do artigo 58.º do seu Regimento,
– Tendo em conta os pareceres da Comissão da Indústria, da Investigação e da Energia, da Comissão da Cultura e da Educação, da Comissão dos Assuntos Jurídicos, da Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar e da Comissão dos Transportes e do Turismo,
– Tendo em conta o relatório da Comissão do Mercado Interno e da Proteção dos Consumidores e da Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos (A9-0188/2023),
1. Aprova a posição em primeira leitura que se segue;
2. Requer à Comissão que lhe submeta de novo a sua proposta, se a substituir, se a alterar substancialmente ou se pretender alterá-la substancialmente;
3. Encarrega a sua Presidente de transmitir a posição do Parlamento ao Conselho e à Comissão, bem como aos parlamentos nacionais.
Alteração 1
Proposta de regulamento
Citação 4-A (nova)
|
|
Texto da Comissão |
Alteração |
|
Tendo em conta o parecer do Banco Central Europeu, |
Alteração 2
Proposta de regulamento
Citação 4-B (nova)
|
|
Texto da Comissão |
Alteração |
|
Tendo em conta o parecer conjunto do Comité Europeu para a Proteção de Dados e da Autoridade Europeia para a Proteção de Dados, |
Alteração 3
Proposta de regulamento
Considerando 1
|
|
Texto da Comissão |
Alteração |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
(1) A finalidade do presente regulamento é promover a adoção de uma inteligência artificial centrada no ser humano e fiável e assegurar um elevado nível de proteção da saúde, da segurança, dos direitos fundamentais, da democracia, do Estado de direito e do ambiente contra os efeitos nocivos dos sistemas de inteligência artificial na União, apoiando simultaneamente a inovação e melhorando o funcionamento do mercado interno. O presente regulamento estabelece um quadro jurídico uniforme para o desenvolvimento, a colocação no mercado, a entrada em serviço e a utilização de inteligência artificial em conformidade com os valores da União e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial (sistemas IA), salvo se explicitamente autorizado pelo presente regulamento. Determinados sistemas de IA podem também ter impacto na democracia, no Estado de direito e no ambiente. Estas preocupações são especificamente abordadas nos setores críticos e enunciam casos enumerados nos anexos do presente regulamento. |
Alteração 4
Proposta de regulamento
Considerando 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-A) O presente regulamento deve preservar os valores da União, facilitando a repartição dos benefícios da inteligência artificial pela sociedade, protegendo as pessoas dos riscos, assim como as empresas, a democracia, o Estado de direito e o ambiente, e estimulando, ao mesmo tempo, a inovação e o emprego de modo a colocar a Europa numa posição de liderança neste domínio. |
Alteração 5
Proposta de regulamento
Considerando 2
|
|
Texto da Comissão |
Alteração |
(2) Os sistemas de inteligência artificial (sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União e evitar divergências que prejudiquem a livre circulação dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.º do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.º do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados. |
(2) Os sistemas de IA podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além-fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja de confiança e segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União, com vista a alcançar uma IA de confiança, e evitar divergências que prejudiquem a livre circulação, a inovação, a implantação e a adoção dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). |
Alteração 6
Proposta de regulamento
Considerando 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-A) Uma vez que a inteligência artificial depende frequentemente do tratamento de grandes volumes de dados, e de muitos sistemas e aplicações de IA para o tratamento de dados pessoais, afigura-se adequado basear o presente regulamento no artigo 16.º do TFUE, que consagra o direito das pessoas singulares a serem protegidas no tratamento de dados pessoais e prevê a adoção de regras aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais. |
Alteração 7
Proposta de regulamento
Considerando 2-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-B) O direito fundamental à proteção dos dados pessoais está salvaguardado, em particular nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680. Além disso, a Diretiva 2002/58/CE protege a vida privada e a confidencialidade das comunicações, incluindo a criação de condições para o armazenamento de dados pessoais e não pessoais em equipamentos terminais e o acesso a esses dados a partir de tais equipamentos. Estes atos jurídicos constituem a base para um tratamento dos |
Alteração 8
Proposta de regulamento
Considerando 2-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-C) Os sistemas de inteligência artificial na União estão sujeitos à legislação pertinente em matéria de segurança dos produtos que estabelece um quadro de proteção dos consumidores contra produtos perigosos em geral, legislação essa que deverá continuar a ser aplicável. O presente regulamento não prejudica igualmente as regras estabelecidas por outros atos jurídicos da União relativos à proteção do consumidor e à segurança dos produtos, incluindo o Regulamento (UE) 2017/2394, o Regulamento (UE) 2019/1020 e a Diretiva 2001/95/CE relativa à segurança geral dos produtos, bem como a Diretiva 2013/11/UE. |
Alteração 9
Proposta de regulamento
Considerando 2-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-D) Em conformidade com o artigo 114.º, n.º 2, do TFUE, o presente regulamento complementa e não deve prejudicar os direitos e interesses dos trabalhadores. Por conseguinte, o presente regulamento não deve prejudicar o direito da UE em matéria de política social e de legislações laborais nacionais e respetivas práticas, ou seja, qualquer disposição legal e contratual relativa às condições de emprego, às condições de trabalho, incluindo a saúde e segurança no trabalho e a relação entre empregadores e trabalhadores, incluindo a informação, consulta e participação. O presente regulamento não deve prejudicar o exercício dos direitos fundamentais reconhecidos pelos Estados-Membros e a nível da União, incluindo o direito ou a liberdade de fazer greve ou a liberdade de realizar outras ações abrangidas pelos sistemas específicos de relações laborais dos Estados-Membros, em conformidade com o direito e/ou as práticas nacionais. Também não deve afetar as práticas de concertação, o direito de negociar, celebrar e aplicar convenções coletivas ou o direito de ação coletiva, em conformidade com o direito e/ou as práticas nacionais. Em qualquer caso, não deve impedir a Comissão de propor legislação específica sobre os direitos e liberdades dos trabalhadores afetados pelos sistemas de IA.
|
Alteração 10
Proposta de regulamento
Considerando 2-E (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-E) O presente regulamento não deve afetar as disposições destinadas a melhorar as condições de trabalho nas plataformas de trabalho previstas na Diretiva ... [COD 2021/414/CE].
|
Alteração 11
Proposta de regulamento
Considerando 2-F (novo)
|
|
Texto da Comissão |
Alteração |
|
(2-F) O presente regulamento deve ajudar a apoiar a investigação e a inovação e não deve comprometer a atividade de investigação e desenvolvimento e respeitar a liberdade de investigação científica. Por conseguinte, é necessário excluir do seu âmbito de aplicação sistemas de IA especificamente desenvolvidos exclusivamente para fins de investigação científica e desenvolvimento e assegurar que o regulamento não afete a atividade de investigação científica e desenvolvimento em matéria de sistemas de IA. Seja em que circunstância for, qualquer atividade de investigação e desenvolvimento deve ser realizada em conformidade com a Carta, o direito da União e a legislação nacional. |
Alteração 12
Proposta de regulamento
Considerando 3
|
|
Texto da Comissão |
Alteração |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer, e que já oferece mesmo, um vasto conjunto de benefícios económicos, ambientais e sociais a todo o leque de indústrias e atividades sociais, se desenvolvida de acordo com princípios gerais pertinentes em conformidade com a Carta e com os valores em que a União se alicerça. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na segurança alimentar, na educação e na formação, nos meios de comunicação social, no desporto, na cultura, na gestão das infraestruturas, na energia, nos transportes e logística, na gestão de crises, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos, na monitorização ambiental, na preservação e recuperação da biodiversidade e dos ecossistemas e na atenuação das alterações climáticas e adaptação às mesmas. |
Alteração 13
Proposta de regulamento
Considerando 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(3-A) Para contribuirem para serem atingidas as metas de neutralidade carbónica, as empresas europeias devem procurar utilizar todos os avanços tecnológicos disponíveis que possam contribuir para a consecução deste objetivo. A IA é uma tecnologia que pode potencialmente ser utilizada para tratar a quantidade cada vez maior de dados gerados durante processos industriais, ambientais, de saúde e outros. Para facilitar os investimentos em soluções de análise e otimização baseadas na IA, o presente regulamento deve proporcionar um ambiente previsível e proporcionado para soluções industriais de baixo risco. |
Alteração 14
Proposta de regulamento
Considerando 4
|
|
Texto da Comissão |
Alteração |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais. |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, bem como do nível de desenvolvimento tecnológico, a inteligência artificial pode criar riscos e prejudicar interesses públicos ou privados e direitos fundamentais das pessoas singulares que estão protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais, incluindo danos físicos, psicológicos, sociais ou económicos. |
Alteração 15
Proposta de regulamento
Considerando 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(4-A) Tendo em conta o grande impacto que a inteligência artificial pode ter na sociedade e a necessidade de criar confiança, é fundamental que a inteligência artificial e o seu quadro regulamentar sejam desenvolvidos em conformidade com os valores da União consagrados no artigo 2.º do TUE, os direitos e liberdades fundamentais consagrados nos Tratados, a Carta e o direito internacional em matéria de direitos humanos. Como condição prévia, a inteligência artificial deve ser uma tecnologia centrada no ser humano. Não deve substituir a autonomia humana nem assumir a perda de liberdade individual e deve servir, em primeiro lugar, as necessidades da sociedade e o bem comum. Devem ser previstas salvaguardas para assegurar o desenvolvimento e a utilização de inteligência artificial eticamente incorporada que respeite os valores da União e a Carta. |
Alteração 16
Proposta de regulamento
Considerando 5
|
|
Texto da Comissão |
Alteração |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança, a proteção dos direitos fundamentais, a democracia e o Estado de direito e o ambiente, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e em serviço e à utilização de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Estas regras devem ser claras e sólidas na proteção dos direitos fundamentais, apoiando novas soluções inovadoras e permitindo um ecossistema europeu de intervenientes públicos e privados que criem sistemas de IA em consonância com os valores da União. Ao estabelecer essas regras, bem como medidas de apoio à inovação, com especial destaque para as PME e as empresas em fase de arranque, o presente regulamento apoia o objetivo de promover a IA desenvolvida na UE, assim como o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33, e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
__________________ |
__________________ |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
Alteração 17
Proposta de regulamento
Considerando 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(5-A) Além disso, para promover o desenvolvimento dos sistemas de IA em consonância com os valores da União, a União deve colmatar as principais lacunas e os obstáculos que impedem o potencial da transformação digital, e designadamente a escassez de trabalhadores com competências digitais, as preocupações em matéria de cibersegurança, a falta de investimento e o acesso a este, bem como o fosso existente e potencial entre as grandes empresas, as PME e as empresas em fase de arranque. Deve dar-se uma atenção especial à necessidade de garantir que os benefícios da IA e da inovação nas novas tecnologias se façam sentir em todas as regiões da União e que sejam disponibilizados investimentos e recursos suficientes, especialmente para as regiões que possam estar atrasadas em alguns indicadores digitais. |
Alteração 18
Proposta de regulamento
Considerando 6
|
|
Texto da Comissão |
Alteração |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve basear-se nas principais características funcionais do software, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
(6) A definição de «sistema de IA» constante do presente regulamento deve ser inequívoca e estar estreitamente alinhada com o trabalho das organizações internacionais ativas no domínio da inteligência artificial, para assegurar a segurança jurídica, a harmonização e a ampla aceitação, proporcionando em simultâneo a flexibilidade suficiente para se adaptar a rápidas evoluções tecnológicas neste domínio. Além disso, deve basear-se em características principais da inteligência artificial, tais como a sua capacidade de aprendizagem, raciocínio ou modelização, para a distinguir de sistemas de software ou abordagens de programação mais simples. Os sistemas de IA são concebidos para operar com diferentes níveis de autonomia, o que significa que têm, pelo menos, um certo grau de independência das ações efetuadas por controlo humano e capacidades para funcionar sem intervenção humana. O termo «baseado em máquinas» refere-se ao facto de os sistemas de IA requererem o uso de máquinas. A referência a objetivos explícitos ou implícitos visa sublinhar que os sistemas de IA podem funcionar de acordo com objetivos explícitos definidos por seres humanos ou com objetivos implícitos. Os objetivos do sistema de IA podem ser diferentes da finalidade prevista para o sistema de IA num contexto específico. A referência às previsões inclui conteúdos, que são considerados no presente regulamento uma forma de previsão e um dos resultados possíveis produzidos por um sistema de IA. Para efeitos do presente regulamento, o ambiente deve ser entendido nos contextos em que os sistemas de IA funcionam, ao passo que os resultados gerados pelo sistema de IA, ou seja, as previsões, recomendações ou decisões, respondem perante os objetivos do sistema, com base em contributos desse ambiente. Essa produção influencia ainda mais o ambiente em causa, ainda que através da mera introdução de nova informação. |
Alteração 19
Proposta de regulamento
Considerando 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(6-A) Os sistemas de IA possuem frequentemente capacidade de aprendizagem automática que lhes permitem adaptar-se e desempenharem novas tarefas de uma forma autónoma. A aprendizagem automática envolve um processo computacional de otimização, a partir de dados, dos parâmetros do modelo, sob a forma de uma construção matemática que gera um resultado baseado em dados de entrada. As abordagens para a aprendizagem automática incluem, por exemplo, uma aprendizagem supervisionada, não supervisionada e por reforço, utilizando uma grande variedade de métodos de que faz parte a aprendizagem profunda recorrendo a redes neurais. O presente regulamento visa fazer face a novos riscos potenciais que possam surgir delegando o controlo em sistemas de IA, em especial sistemas de IA que possam evoluir após a sua implantação. A função e os resultados de muitos destes sistemas de IA baseiam-se em relações matemáticas abstratas que são difíceis de compreender pelos seres humanos e de monitorizar e cujos contributos específicos são também difíceis de rastrear. Estas características complexas e opacas (elemento de caixa negra) têm o seu impacto sobre a responsabilização e a capacidade de explicar. Técnicas comparativamente mais simples como as abordagens baseadas no conhecimento, as estimativas bayesianas ou o esquema de tomada de decisões sob a forma de árvore podem também conduzir a lacunas jurídicas que devem ser abordadas no presente regulamento, em especial quando são utilizadas em combinação com abordagens de aprendizagem automática em sistemas híbridos.
|
Alteração 20
Proposta de regulamento
Considerando 6-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(6-B) Os sistemas de IA podem ser usados como um sistema de software independente, integrados num produto físico, utilizados para servir a funcionalidade de um produto físico sem estar incorporado nele (não integrados) ou utilizados como componente de IA de um sistema mais vasto. Se este sistema de maior dimensão não funcionar sem a componente de IA em questão, todo o sistema de maior dimensão deve ser considerado como um único sistema de IA nos termos do presente regulamento. |
Alteração 21
Proposta de regulamento
Considerando 7
|
|
Texto da Comissão |
Alteração |
(7) A definição de «dados biométricos» utilizada no presente regulamento está em consonância e deve ser interpretada de forma coerente com a definição de «dados biométricos» constante do artigo 4.º, ponto 14, do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho35, do artigo 3.º, ponto 18, do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho36 e do artigo 3.º, ponto 13, da Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho37. |
(7) A definição de «dados biométricos» utilizada no presente regulamento está em consonância e deve ser interpretada de forma coerente com a definição de «dados biométricos» constante do artigo 4.º, ponto 14, do Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho35. Os dados baseados na biometria são dados adicionais resultantes de um tratamento técnico específico relacionado com os sinais físicos, fisiológicos ou comportamentais de uma pessoa singular, como expressões faciais, movimentos, frequência cardíaca, voz, digitação ou marcha, que podem, ou não, permitir a identificação ou confirmar a identificação única de uma pessoa singular. |
__________________ |
__________________ |
35 Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1). |
35 Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1). |
36 Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho, de 23 de outubro de 2018, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas instituições e pelos órgãos e organismos da União e à livre circulação desses dados, e que revoga o Regulamento (CE) n.º 45/2001 e a Decisão n.º 1247/2002/CE (JO L 295 de 21.11.2018, p. 39). |
|
37 Diretiva (UE) 2016/680 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativa à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais pelas autoridades competentes para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, e à livre circulação desses dados, e que revoga a Decisão-Quadro 2008/977/JAI do Conselho (Diretiva sobre a Proteção de Dados na Aplicação da Lei) (JO L 119 de 4.5.2016, p. 89). |
|
Alteração 22
Proposta de regulamento
Considerando 7-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(7-A) A definição de «identificação biométrica» usada neste regulamento deve ser entendida como o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais e psicológicas, tais como o rosto, o movimento dos olhos, as expressões faciais, a forma do corpo, a voz, a fala, a marcha, a postura, a frequência cardíaca, a pressão arterial, o odor, a força dos dedos ao digitar, reações psicológicas (raiva, angústia, tristeza, etc.) com o objetivo de verificar a identidade de um indivíduo, comparando os dados biométricos desse indivíduo com dados biométricos de indivíduos armazenados numa base de dados (identificação de um-para-muitos), independentemente do seu respetivo e prévio consentimento; |
Alteração 23
Proposta de regulamento
Considerando 7-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(7-B) A definição de «categorização biométrica» utilizada neste regulamento deve ser entendida como a inserção de indivíduos em categorias específicas, ou o processo de inferir as suas características e atributos, como o género, sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou social, saúde, capacidade mental ou física, traços comportamentais ou de personalidade, características da linguagem, religião, ou pertença a uma minoria nacional, ou orientação sexual ou política, com base nos seus dados biométricos ou de base biométrica, ou que possam ser razoavelmente inferidos a partir desses dados. |
Alteração 24
Proposta de regulamento
Considerando 8
|
|
Texto da Comissão |
Alteração |
(8) O conceito de «sistema de identificação biométrica à distância» utilizado no presente regulamento deve ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que se saiba, antecipadamente, se a pessoa visada estará presente e pode ser identificada, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos utilizados. Tendo em conta as diferentes características e formas como são utilizados, bem como os diferentes riscos inerentes, deve ser efetuada uma distinção entre sistemas de identificação biométrica à distância «em tempo real» e «em diferido». No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de imediato, quase de imediato ou, em todo o caso, sem um atraso significativo. Não pode haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa por via da introdução de ligeiros retardamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como vídeos, criados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. Por outro lado, no caso dos sistemas «em diferido», os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem apenas após um atraso significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, criados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa. |
(8) O conceito de «sistema de identificação biométrica à distância» utilizado no presente regulamento deve ser definido, de modo funcional, como um sistema de IA que se destina à identificação de pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que se saiba, antecipadamente, se a pessoa visada estará presente e pode ser identificada, independentemente da tecnologia, dos processos ou dos tipos de dados biométricos utilizados, com exclusão dos sistemas de verificação que comparem apenas os dados biométricos de um indivíduo com os seus dados biométricos facultados previamente (um para um). Tendo em conta as diferentes características e formas como são utilizados, bem como os diferentes riscos inerentes, deve ser efetuada uma distinção entre sistemas de identificação biométrica à distância «em tempo real» e «em diferido». No caso dos sistemas «em tempo real», a recolha dos dados biométricos, a comparação e a identificação ocorrem de imediato, quase de imediato ou, em todo o caso, sem um atraso significativo. Não pode haver, a este respeito, margem para contornar as regras do presente regulamento sobre a utilização «em tempo real» dos sistemas de IA em causa por via da introdução de ligeiros retardamentos no sistema. Os sistemas «em tempo real» implicam a utilização «ao vivo» ou «quase ao vivo» de materiais, como vídeos, criados por uma câmara ou outro dispositivo com uma funcionalidade semelhante. Por outro lado, no caso dos sistemas «em diferido», os dados biométricos já foram recolhidos e a comparação e a identificação ocorrem apenas após um atraso significativo. Estes sistemas utilizam materiais, tais como imagens ou vídeos, criados por câmaras de televisão em circuito fechado ou dispositivos privados antes de o sistema ser utilizado relativamente às pessoas singulares em causa. Uma vez que o conceito de identificação biométrica é independente do consentimento individual, esta definição aplica-se mesmo quando são colocados avisos no local que está sob a vigilância do sistema de identificação biométrica à distância, não sendo anulado de facto pela pré-inscrição. |
Alteração 25
Proposta de regulamento
Considerando 8-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(8-A) A identificação de pessoas singulares à distância é entendida como uma distinção entre os sistemas de identificação biométrica à distância e os sistemas de verificação individual de proximidade que utilizam meios de identificação biométrica, cujo único objetivo é confirmar se uma pessoa singular específica que se apresenta para identificação é ou não autorizada, por exemplo para ter acesso a um serviço, a um dispositivo ou a instalações. |
Alteração 26
Proposta de regulamento
Considerando 9
|
|
Texto da Comissão |
Alteração |
(9) Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública. Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, lojas e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço. |
(9) Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública e independentemente de potenciais restrições à sua capacidade. Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, campos desportivos, escolas, universidades, partes relevantes de hospitais e bancos, parques de diversões, festivais, lojas e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço. |
Alteração 27
Proposta de regulamento
Considerando 9-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(9-A) É importante assinalar que os sistemas de IA devem esforçar-se tanto quanto possível para respeitar os princípios gerais que estabelecem um quadro de alto nível que promova uma abordagem coerente centrada no ser humano em prol de uma IA ética e fiável, em consonância com a Carta dos Direitos Fundamentais da União Europeia e os valores em que se funda a União, incluindo a proteção dos direitos fundamentais, a iniciativa e o controlo por humanos, a solidez técnica e a segurança, a privacidade e a governação dos dados, a transparência, a não discriminação e a equidade, bem como o bem-estar social e ambiental. |
Alteração 28
Proposta de regulamento
Considerando 9-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(9-B) A «Literacia no domínio da IA» diz respeito às competências, aos conhecimentos e à compreensão que permitem que os fornecedores, os utilizadores e as pessoas afetadas, tendo em conta os seus respetivos direitos e obrigações no contexto do presente regulamento, implantem os sistemas de IA com conhecimento de causa e tomem consciência das oportunidades e dos riscos inerentes à IA, bem como dos eventuais danos que a IA pode causar, promovendo, assim, o seu controlo democrático. A literacia em IA não deve circunscrever-se à aprendizagem sobre ferramentas e tecnologias, mas deve também ter por objetivo dotar os fornecedores e utilizadores das noções e competências necessárias para assegurar o cumprimento e a aplicação do presente regulamento. Por conseguinte, é necessário que a Comissão e os Estados-Membros, bem como os fornecedores e os utilizadores de sistemas de IA, em cooperação com todas as partes interessadas pertinentes, promovam o desenvolvimento de um nível suficiente de literacia em IA em todos os quadrantes da sociedade para os cidadãos de todas as faixas etárias, incluindo mulheres e raparigas, e que os progressos na matéria sejam acompanhados de perto. |
Alteração 29
Proposta de regulamento
Considerando 10
|
|
Texto da Comissão |
Alteração |
(10) Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas singulares em toda a União, as regras estabelecidas no presente regulamento devem aplicar-se aos fornecedores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos utilizadores de sistemas de IA estabelecidos na União. |
(10) Para assegurar condições de concorrência equitativas e uma proteção eficaz dos direitos e das liberdades das pessoas singulares em toda a União e a nível internacional, as regras estabelecidas no presente regulamento devem aplicar-se aos fornecedores de sistemas de IA de uma forma não discriminatória, independentemente de estarem estabelecidos na União ou num país terceiro, e aos responsáveis pela instalação de sistemas de IA estabelecidos na União. Para que a União seja fiel aos seus valores fundamentais, os sistemas de IA concebidos para serem utilizados em práticas consideradas inaceitáveis pelo presente regulamento devem igualmente ser considerados inaceitáveis fora da União devido ao seu efeito particularmente prejudicial para os direitos fundamentais consagrados na Carta. Por conseguinte, é adequado proibir a exportação desses sistemas de IA para países terceiros por fornecedores residentes na União.
|
Alteração 30
Proposta de regulamento
Considerando 11
|
|
Texto da Comissão |
Alteração |
(11) Face à natureza digital dos sistemas de IA, determinados sistemas devem ser abrangidos pelo âmbito do presente regulamento, mesmo quando não são colocados no mercado ou em serviço, nem são utilizados na União. Esta situação verifica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido fora da União relativamente a uma atividade a realizar por um sistema de IA que seria considerado «de risco elevado» e cujos efeitos afetam pessoas singulares localizadas na União. Nessas circunstâncias, o operador fora da União poderia utilizar o seu sistema de IA para tratar dados recolhidos e transferidos licitamente da União e fornecer ao operador contratante na União o resultado desse sistema de IA decorrente desse tratamento, sem que o sistema de IA em causa fosse colocado no mercado ou em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deve ser igualmente aplicável a fornecedores e utilizadores de sistemas de IA estabelecidos num país terceiro nos casos em que o resultado desses sistemas seja utilizado na União. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais de cooperação com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deve ser aplicável às autoridades públicas de um país terceiro e às organizações internacionais quando estas atuam no âmbito de acordos internacionais celebrados a nível nacional ou europeu para efeitos de cooperação policial e judiciária com a União ou com os seus Estados-Membros. Tais acordos têm sido celebrados bilateralmente entre Estados-Membros e países terceiros ou entre a União Europeia, a Europol e outras agências da UE e países terceiros e organizações internacionais. |
(11) Face à natureza digital dos sistemas de IA, determinados sistemas devem ser abrangidos pelo âmbito do presente regulamento, mesmo quando não são colocados no mercado ou em serviço, nem são utilizados na União. Esta situação verifica-se, por exemplo, quando um operador estabelecido na União contrata determinados serviços a um operador estabelecido fora da União relativamente a uma atividade a realizar por um sistema de IA que seria considerado «de risco elevado» e cujos efeitos afetam pessoas singulares localizadas na União. Nessas circunstâncias, o operador fora da União poderia utilizar o seu sistema de IA para tratar dados recolhidos e transferidos licitamente da União e fornecer ao operador contratante na União o resultado desse sistema de IA decorrente desse tratamento, sem que o sistema de IA em causa fosse colocado no mercado ou em serviço ou utilizado na União. Para evitar que o presente regulamento seja contornado e para assegurar uma proteção eficaz das pessoas singulares localizadas na União, o presente regulamento deve ser igualmente aplicável a fornecedores e utilizadores ou responsáveis pela implantação de sistemas de IA estabelecidos num país terceiro nos casos em que o resultado desses sistemas se destine a ser utilizado na União. No entanto, para ter em conta os mecanismos existentes e as necessidades especiais de cooperação com os parceiros estrangeiros com quem são trocadas informações e dados, o presente regulamento não deve ser aplicável às autoridades públicas de um país terceiro e às organizações internacionais quando estas atuam no âmbito de acordos internacionais celebrados a nível nacional ou europeu para efeitos de cooperação policial e judiciária com a União ou com os seus Estados-Membros. Tais acordos têm sido celebrados bilateralmente entre Estados-Membros e países terceiros ou entre a União Europeia, a Europol e outras agências da UE e países terceiros e organizações internacionais. Não obstante, esta exceção deve estar limitada aos países e organizações internacionais de confiança que partilham os valores da União. |
Alteração 31
Proposta de regulamento
Considerando 12
|
|
Texto da Comissão |
Alteração |
(12) O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como fornecedor ou utilizador de um sistema de IA. Os sistemas de IA desenvolvidos ou utilizados exclusivamente para efeitos militares devem ser excluídos do âmbito do presente regulamento, caso essa utilização seja abrangida pela competência exclusiva da política externa e de segurança comum regulamentada nos termos do título V do Tratado da União Europeia (TUE). O presente regulamento não prejudica a responsabilidade dos prestadores intermediários de serviços estabelecida na Diretiva 2000/31/CE do Parlamento Europeu e do Conselho [na redação que lhe foi dada pelo Regulamento Serviços Digitais]. |
(12) O presente regulamento deverá ser também aplicável a instituições, órgãos e organismos da União quando atuam como fornecedor ou responsável pela implantação de um sistema de IA. Os sistemas de IA desenvolvidos ou utilizados exclusivamente para efeitos militares devem ser excluídos do âmbito do presente regulamento, caso essa utilização seja abrangida pela competência exclusiva da política externa e de segurança comum regulamentada nos termos do título V do Tratado da União Europeia (TUE). O presente regulamento não prejudica a responsabilidade dos prestadores intermediários de serviços estabelecida na Diretiva 2000/31/CE do Parlamento Europeu e do Conselho [na redação que lhe foi dada pelo Regulamento Serviços Digitais]. |
Alteração 32
Proposta de regulamento
Considerando 12-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(12-A) O software e os dados que sejam partilhados abertamente e que possam, eles próprios ou uma versão alterada dos mesmos, ser livremente consultados, utilizados, alterados e redistribuídos pelos utilizadores podem contribuir para a investigação e para a inovação no mercado. Estudos da Comissão Europeia demonstram, além disso, que o software livre e de código fonte aberto pode contribuir com 65 a 95 mil milhões de euros para o PIB da União Europeia e proporcionar oportunidades significativas de crescimento da economia europeia. Os utilizadores têm a possibilidade de executar, copiar, distribuir, estudar, alterar e melhorar o software e os dados, incluindo os modelos, através de licenças livres e de fonte aberta. A fim de promover o desenvolvimento e a implantação da IA, especialmente por PME, empresas em fase de arranque e investigação académica, mas também por indivíduos, o presente regulamento não deve aplicar-se a esses componentes de IA livres e de fonte aberta, exceto na medida em que sejam colocados no mercado ou em serviço por um fornecedor como parte de um sistema de IA de risco elevado ou de um sistema de IA abrangido pelos títulos II ou IV do presente regulamento. |
Alteração 33
Proposta de regulamento
Considerando 12-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(12-B) Nem o desenvolvimento colaborativo de componentes de IA com software livre e de código fonte aberto nem a sua disponibilização em repositórios abertos devem constituir uma colocação no mercado ou uma entrada em serviço. Uma atividade comercial que se enquadre num entendimento de disponibilização no mercado pode, no entanto, caracterizar-se pela cobrança de um preço, com exceção de transações entre microempresas, por um componente de IA com «software» livre e de fonte aberta, mas também pela cobrança de um preço por serviços de apoio técnico, pela disponibilização de uma plataforma de software através da qual o fornecedor lucre com outros serviços ou pela utilização de dados pessoais por razões que não sejam exclusivamente destinadas a melhorar a segurança, a compatibilidade ou a interoperabilidade do software. |
Alteração 34
Proposta de regulamento
Considerando 12-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(12-C) Os criadores de componentes de software livre e de código fonte aberto não devem ser obrigados, ao abrigo do presente regulamento, a cumprir os requisitos relativos à cadeia de valor da IA e, em particular, no que diz respeito ao fabricante que utilizou esse componente de software livre e de código fonte aberto. No entanto, os criadores de componentes de IA gratuitos e de fonte aberta devem ser incentivados a aplicar práticas de documentação amplamente adotadas, como modelos e cartões de dados, como forma de acelerar a partilha de informações ao longo da cadeia de valor da IA, permitindo a promoção de sistemas de IA fiáveis na União. |
Alteração 35
Proposta de regulamento
Considerando 13
|
|
Texto da Comissão |
Alteração |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, bem como da democracia e do Estado de direito e do ambiente, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta, o Pacto Ecológico Europeu, a Declaração Conjunta sobre os Direitos Digitais da União e as Orientações Éticas para uma Inteligência Artificial (IA) de Confiança do Grupo de Peritos de Alto Nível em Inteligência Artificial e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
Alteração 36
Proposta de regulamento
Considerando 14
|
|
Texto da Comissão |
Alteração |
(14) Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deve seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deve adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas de inteligência artificial, estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA. |
(14) Para que o conjunto de normas vinculativas aplicáveis aos sistemas de IA seja proporcionado e eficaz, deve seguir-se uma abordagem baseada no risco claramente definida. Essa abordagem deve adaptar o tipo e o conteúdo dessas normas à intensidade e ao âmbito dos riscos criados pelos sistemas de IA. Como tal, é necessário proibir determinadas práticas de inteligência artificial inaceitáveis, estabelecer requisitos aplicáveis aos sistemas de IA de risco elevado e obrigações para os operadores pertinentes, bem como estabelecer obrigações de transparência para determinados sistemas de IA. |
Alteração 37
Proposta de regulamento
Considerando 15
|
|
Texto da Comissão |
Alteração |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças. |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e abusivas e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças. |
Alteração 38
Proposta de regulamento
Considerando 16
|
|
Texto da Comissão |
Alteração |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica. |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA com o objetivo ou o efeito de distorcer substancialmente o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esta limitação deve ser entendida como incluindo as neurotecnologias assistidas por sistemas de IA que são utilizadas para monitorizar, utilizar ou influenciar os dados neurais recolhidos através de interfaces cérebro-computador, na medida em que distorçam substancialmente o comportamento de uma pessoa singular de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de indivíduos e grupos específicos de pessoas associadas aos seus traços de personalidade conhecidos ou inferidos, à sua idade e às suas incapacidades físicas ou mentais ou situação social ou económica. A intenção destes sistemas é distorcer ou produzir o efeito de distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa ou grupos de pessoas, incluindo danos que possam ser acumulados ao longo do tempo. A intenção de distorcer o comportamento pode não ser detetada caso a distorção resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador, como fatores que não podem ser razoavelmente previstos e mitigados pelo fornecedor ou pelo responsável pela implantação do sistema de IA. De qualquer modo, não é necessário que o fornecedor ou o responsável pela implantação tenha a intenção de causar um dano substancial, desde que tal dano resulte de práticas manipulativas ou exploradoras possibilitadas pela IA. As proibições de tais práticas de IA complementam as disposições constantes da Diretiva 2005/29/CE, segundo a qual as práticas comerciais desleais são proibidas, independentemente de recorrerem a sistemas de IA ou a outras possibilidades. Neste contexto, as práticas comerciais lícitas, por exemplo no domínio da publicidade, que estejam em conformidade com o direito da União não devem, por si só, ser consideradas como uma violação da proibição. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica que tenham por base um consentimento informado específico dos indivíduos a ela expostos ou, sendo caso disso, do seu tutor legal.
|
Alteração 39
Proposta de regulamento
Considerando 16-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(16-A) Os sistemas de IA que classificam pessoas singulares colocando-as em categorias específicas, de acordo com características sensíveis ou protegidas conhecidas ou inferidas, são particularmente intrusivos, violam a dignidade humana e apresentam um grande risco de discriminação. Essas características incluem o género, a identidade de género, a raça, origem étnica, migração ou estatuto de cidadania, orientação política, orientação sexual, religião, deficiência ou qualquer outro motivo pelo qual a discriminação seja proibida nos termos do artigo 21.º da Carta dos Direitos Fundamentais da UE, bem como nos termos do artigo 9.º do Regulamento (UE) 2016/769; Como tal, esses sistemas devem ser proibidos. |
Alteração 40
Proposta de regulamento
Considerando 17
|
|
Texto da Comissão |
Alteração |
(17) Os sistemas de IA que possibilitam a classificação social de pessoas singulares para uso geral das autoridades públicas ou em nome destas podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas podem ainda violar o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam a credibilidade de pessoas singulares com base no seu comportamento social em diversos contextos ou em características de personalidade ou pessoais, conhecidas ou previsíveis. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com o contexto nos quais os dados foram originalmente gerados ou recolhidos ou a um tratamento prejudicial que é injustificado ou desproporcionado face à gravidade do seu comportamento social. Como tal, esses sistemas de IA devem ser proibidos. |
(17) Os sistemas de IA que possibilitam a classificação social de pessoas singulares para uso geral podem criar resultados discriminatórios e levar à exclusão de determinados grupos. Estes sistemas violam o direito à dignidade e à não discriminação e os valores da igualdade e da justiça. Esses sistemas de IA avaliam ou classificam pessoas singulares ou grupos com base em múltiplos pontos de dados e ocorrências no tempo relacionadas com o seu comportamento social em diversos contextos ou em características de personalidade ou pessoais conhecidas, inferidas ou previsíveis. A classificação social obtida por meio desses sistemas de IA pode levar ao tratamento prejudicial ou desfavorável de pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com o contexto nos quais os dados foram originalmente gerados ou recolhidos ou a um tratamento prejudicial que é injustificado ou desproporcionado face à gravidade do seu comportamento social. Como tal, esses sistemas de IA devem ser proibidos. |
Alteração 41
Proposta de regulamento
Considerando 18
|
|
Texto da Comissão |
Alteração |
(18) A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de manutenção da ordem pública é considerada particularmente intrusiva para os direitos e as liberdades das pessoas em causa, visto que pode afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais. Além disso, dado o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções da utilização desses sistemas que funcionam «em tempo real», estes dão origem a riscos acrescidos para os direitos e as liberdades das pessoas visadas pelas autoridades policiais. |
(18) A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público é particularmente intrusiva para os direitos e as liberdades das pessoas em causa e pode, em última análise, afetar a vida privada de uma grande parte da população, dar origem a uma sensação de vigilância constante, dar às partes que utilizam a identificação biométrica em espaços acessíveis ao público uma posição de poder incontrolável e dissuadir indiretamente o exercício da liberdade de reunião e de outros direitos fundamentais que estão no cerne do Estado de direito. As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente relevante quando diz respeito à idade, à etnia, ao género ou a deficiências das pessoas. Além disso, dado o impacto imediato e as oportunidades limitadas para a realização de controlos adicionais ou correções da utilização desses sistemas que funcionam «em tempo real», estes dão origem a riscos acrescidos para os direitos e as liberdades das pessoas visadas pelas autoridades policiais. Como tal, deve ser proibida a utilização desses sistemas em locais acessíveis ao público. Do mesmo modo, os sistemas de IA utilizados para a análise de imagens registadas de espaços acessíveis ao público através de sistemas de pós-identificação biométrica à distância devem também ser proibidos, a menos que exista uma autorização judicial prévia para a sua utilização no contexto da aplicação da lei, quando estritamente necessária para a pesquisa direcionada ligada a uma infração penal grave e específica já ocorrida, e apenas mediante prévia autorização judicial. |
Alteração 42
Proposta de regulamento
Considerando 19
|
|
Texto da Comissão |
Alteração |
(19) Como tal, deve ser proibida a utilização desses sistemas para efeitos de manutenção da ordem pública, salvo em três situações enunciadas exaustivamente e definidas de modo restrito, em que a utilização é estritamente necessária por motivos de interesse público importante e cuja importância prevalece sobre os riscos. Essas situações implicam a procura de potenciais vítimas de crimes, incluindo crianças desaparecidas, certas ameaças à vida ou à segurança física de pessoas singulares ou ameaças de ataque terrorista, e a deteção, localização, identificação ou instauração de ações penais relativamente a infratores ou suspeitos de infrações penais a que se refere a Decisão-Quadro 2002/584/JAI do Conselho, desde que puníveis no Estado-Membro em causa com pena ou medida de segurança privativas de liberdade de duração máxima não inferior a três anos e tal como definidas pela legislação desse Estado-Membro. Esse limiar para a pena ou medida de segurança privativa de liberdade prevista no direito nacional contribui para assegurar que a infração seja suficientemente grave para justificar potencialmente a utilização de sistemas de identificação biométrica à distância «em tempo real». Além disso, das 32 infrações penais enumeradas na Decisão-Quadro 2002/584/JAI do Conselho, algumas são provavelmente mais pertinentes do que outras, já que o recurso à identificação biométrica à distância «em tempo real» será previsivelmente necessário e proporcionado em graus extremamente variáveis no respeitante à deteção, localização, identificação ou instauração de ação penal relativamente a um infrator ou suspeito das diferentes infrações penais enumeradas e tendo em conta as prováveis diferenças em termos de gravidade, probabilidade e magnitude dos prejuízos ou das possíveis consequências negativas. |
Suprimido |
__________________ |
|
38 Decisão-Quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1). |
|
Alteração 43
Proposta de regulamento
Considerando 20
|
|
Texto da Comissão |
Alteração |
(20) A fim de assegurar que esses sistemas sejam utilizados de uma forma responsável e proporcionada, também importa estabelecer que, em cada uma dessas três situações enunciadas exaustivamente e definidas de modo restrito, é necessário ter em conta determinados elementos, em especial no que se refere à natureza da situação que dá origem ao pedido e às consequências da utilização para os direitos e as liberdades de todas as pessoas em causa e ainda às salvaguardas e condições previstas para a utilização. Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a limites espaciais e temporais adequados, tendo em conta, especialmente, os dados ou indícios relativos às ameaças, às vítimas ou ao infrator. A base de dados de pessoas utilizada como referência deve ser adequada a cada utilização em cada uma das três situações acima indicadas. |
Suprimido |
Alteração 44
Proposta de regulamento
Considerando 21
|
|
Texto da Comissão |
Alteração |
(21) Cada utilização de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública deve estar sujeita a uma autorização expressa e específica de uma autoridade judiciária ou de uma autoridade administrativa independente de um Estado-Membro. Em princípio, essa autorização deve ser obtida antes da sua utilização, salvo em situações de urgência devidamente justificadas, ou seja, quando a necessidade de utilizar os sistemas em causa torna efetiva e objetivamente impossível obter uma autorização antes de iniciar essa utilização. Nessas situações de urgência, a utilização deve limitar-se ao mínimo absolutamente necessário e estar sujeita a salvaguardas e condições adequadas, conforme determinado pelo direito nacional e especificado no contexto de cada caso de utilização urgente pela própria autoridade policial. Ademais, nessas situações, a autoridade policial deve procurar obter quanto antes uma autorização, apresentando as razões para não ter efetuado o pedido mais cedo. |
Suprimido |
Alteração 45
Proposta de regulamento
Considerando 22
|
|
Texto da Comissão |
Alteração |
(22) Além disso, no âmbito do quadro exaustivo estabelecido pelo presente regulamento, importa salientar que essa utilização no território de um Estado-Membro apenas deve ser possível uma vez que o Estado-Membro em causa tenha decidido possibilitar expressamente a autorização dessa utilização de acordo com o presente regulamento nas regras de execução previstas no direito nacional. Consequentemente, ao abrigo do presente regulamento, os Estados-Membros continuam a ser livres de não possibilitar essa utilização ou de apenas possibilitar essa utilização relativamente a alguns dos objetivos passíveis de justificar uma utilização autorizada identificados no presente regulamento. |
Suprimido |
Alteração 46
Proposta de regulamento
Considerando 23
|
|
Texto da Comissão |
Alteração |
(23) A utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» de pessoas singulares em espaços acessíveis ao público para efeitos de manutenção da ordem pública implica necessariamente o tratamento de dados biométricos. As regras do presente regulamento que proíbem essa utilização, salvo em certas exceções, e que têm por base o artigo 16.º do TFUE, devem aplicar-se como lex specialis relativamente às regras em matéria de tratamento de dados biométricos previstas no artigo 10.º da Diretiva (UE) 2016/680, regulando assim essa utilização e o tratamento de dados biométricos conexo de uma forma exaustiva. Como tal, essa utilização e esse tratamento apenas devem ser possíveis se forem compatíveis com o quadro estabelecido pelo presente regulamento, sem que exista margem, fora desse quadro, para as autoridades competentes utilizarem esses sistemas e efetuarem o tratamento desses dados pelos motivos enunciados no artigo 10.º da Diretiva (UE) 2016/680, caso atuem para efeitos de manutenção da ordem pública. Neste contexto, o presente regulamento não pretende constituir o fundamento jurídico do tratamento de dados pessoais, nos termos do artigo 8.º da Diretiva (UE) 2016/680. Contudo, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para outros fins que não os policiais, incluindo por parte das autoridades competentes, não deve ser abrangida pelo quadro específico relativo a essa utilização para efeitos de manutenção da ordem pública estabelecido pelo presente regulamento. Assim, uma utilização para outros fins que não a manutenção da ordem pública não deve estar sujeita ao requisito de autorização previsto no presente regulamento nem às eventuais regras de execução previstas no direito nacional. |
Suprimido |
Alteração 47
Proposta de regulamento
Considerando 24
|
|
Texto da Comissão |
Alteração |
(24) Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, conforme regida pelo presente regulamento, incluindo quando esses sistemas são utilizados pelas autoridades competentes em espaços acessíveis ao público para outros fins que não os policiais, deve continuar a cumprir todos os requisitos decorrentes do artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, do artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725 e do artigo 10.º da Diretiva (UE) 2016/680, conforme aplicável. |
(24) Qualquer tratamento de dados biométricos e de outros dados pessoais envolvidos na utilização de sistemas de IA para fins de identificação biométrica, desde que não estejam associados à utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público, conforme regida pelo presente regulamento, deve continuar a cumprir todos os requisitos decorrentes do artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, do artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725 e do artigo 10.º da Diretiva (UE) 2016/680, conforme aplicável. |
Alteração 48
Proposta de regulamento
Considerando 25
|
|
Texto da Comissão |
Alteração |
(25) Nos termos do artigo 6.º-A do Protocolo (n.º 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.º, n.º 1, alínea d), e n.ºs 2 e 3, do presente regulamento e adotadas com base no artigo 16.º do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.º do TFUE. |
(25) Nos termos do artigo 6.º-A do Protocolo (n.º 21) relativo à posição do Reino Unido e da Irlanda em relação ao espaço de liberdade, segurança e justiça, anexo ao TUE e ao TFUE, a Irlanda não fica vinculada pelas regras estabelecidas no artigo 5.º, n.º 1, alínea d), do presente regulamento e adotadas com base no artigo 16.º do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito da parte III, título V, capítulos 4 ou 5, do TFUE, caso não esteja vinculada por regras que rejam formas de cooperação judiciária em matéria penal ou de cooperação policial no âmbito das quais devam ser observadas as disposições definidas com base no artigo 16.º do TFUE. |
Alteração 49
Proposta de regulamento
Considerando 26
|
|
Texto da Comissão |
Alteração |
(26) Nos termos dos artigos 2.º e 2.º-A do Protocolo (n.º 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.º, n.º 1, alínea d), e n.os 2 e 3, do presente regulamento e adotadas com base no artigo 16.º do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas. |
(26) Nos termos dos artigos 2.º e 2.º-A do Protocolo (n.º 22) relativo à posição da Dinamarca, anexo ao TUE e ao TFUE, a Dinamarca não fica vinculada pelas regras estabelecidas no artigo 5.º, n.º 1, alínea d), do presente regulamento e adotadas com base no artigo 16.º do TFUE que digam respeito ao tratamento de dados pessoais pelos Estados-Membros no exercício de atividades que se enquadram no âmbito de aplicação da parte III, título V, capítulos 4 ou 5, do TFUE, nem fica sujeita à aplicação das mesmas. |
Alteração 50
Proposta de regulamento
Considerando 26-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(26-A) Os sistemas de IA utilizados pelas autoridades policiais, ou em seu nome, para fazer previsões, perfis ou avaliações dos riscos com base nos perfis de pessoas singulares ou análises de dados baseadas nos traços de personalidade ou características de um indivíduo, incluindo a sua localização, ou no historial criminal de pessoas singulares ou grupos de pessoas para prever a ocorrência ou recorrência de uma ou mais infrações penais, reais ou potenciais, ou outro comportamento social criminalizado ou infrações administrativas, incluindo sistemas de previsão de fraudes, apresentam um risco particular de discriminação contra determinadas pessoas ou grupos de pessoas, uma vez que violam a dignidade humana, bem como o princípio jurídico fundamental da presunção de inocência. Como tal, esses sistemas de IA devem ser proibidos. |
Alteração 51
Proposta de regulamento
Considerando 26-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(26-B) O abate indiscriminado e não direcionado de dados biométricos das redes sociais ou de imagens de CCTV para criar ou expandir bases de dados de reconhecimento facial agrava o sentimento de vigilância em larga escala e pode conduzir a violações flagrantes dos direitos fundamentais, incluindo o direito à privacidade. Como tal, deve ser proibida a utilização de sistemas de IA para esta finalidade. |
Alteração 52
Proposta de regulamento
Considerando 26-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(26-C) Existem sérias preocupações relativamente à base científica dos sistemas de IA que visam detetar emoções ou características físicas ou fisiológicas, tais como expressões faciais, movimentos, frequência cardíaca ou voz. As emoções ou expressão de emoções e perceções variam consideravelmente de acordo com culturas e situações, mesmo quando se trata de uma única pessoa. Entre as principais deficiências de tais tecnologias estão a fiabilidade limitada (as categorias das emoções não são expressas de forma fiável, nem inequivocamente associadas, a um conjunto comum de movimentos físicos ou fisiológicos), a falta de especificidade (as expressões físicas ou fisiológicas não correspondem perfeitamente às categorias de emoções) e a limitada generalização (os efeitos do contexto e da cultura não são suficientemente considerados). Podem surgir problemas de fiabilidade e, consequentemente, grandes riscos de abuso, especialmente quando o sistema é implantado em situações reais relacionadas com a aplicação da lei, a gestão das fronteiras, o local de trabalho e as instituições de ensino. Por conseguinte, deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA destinados a serem utilizados nestes contextos para detetar o estado emocional de indivíduos. |
Alteração 53
Proposta de regulamento
Considerando 26-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(26-D) As práticas proibidas pela legislação da União, incluindo a legislação sobre proteção de dados, não discriminação, defesa do consumidor e direito da concorrência, não podem ser afetadas pelo presente regulamento. |
Alteração 54
Proposta de regulamento
Considerando 27
|
|
Texto da Comissão |
Alteração |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União, colocados em serviço ou utilizados se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União, incluindo os direitos fundamentais, a democracia, o Estado de direito ou o ambiente. A fim de assegurar o alinhamento com a legislação setorial e evitar duplicações, os requisitos para determinados sistemas de IA de risco elevado terão em conta a legislação setorial que estabelece requisitos para sistemas de IA de risco elevado incluídos no âmbito do presente regulamento, como o Regulamento (UE) 2017/745 relativo aos dispositivos médicos, o Regulamento (UE) 2017/746 relativo aos dispositivos médicos para diagnóstico in vitro ou a Diretiva 2006/42/CE relativa às máquinas. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. Tendo em conta o ritmo rápido do desenvolvimento tecnológico, bem como as potenciais alterações na utilização de sistemas de IA, a lista de zonas de risco elevado e de casos de utilização constante do anexo III deve, não obstante, ser objeto de revisão permanente através de uma avaliação regular. |
Alteração 55
Proposta de regulamento
Considerando 28
|
|
Texto da Comissão |
Alteração |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas. |
(28) Os sistemas de IA podem ter um impacto adverso na saúde e segurança das pessoas, em particular quando esses sistemas funcionam como componentes de segurança de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. |
Alteração 56
Proposta de regulamento
Considerando 28-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(28-A) A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação e a não discriminação, o direito à educação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, a igualdade de género, os direitos de propriedade intelectual, o direito a uma indemnização eficaz e a um julgamento imparcial, o direito de defesa e a presunção de inocência e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem ambas que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, inclusivamente em relação à saúde e à segurança das pessoas ou do ambiente. |
Alteração 57
Proposta de regulamento
Considerando 29
|
|
Texto da Comissão |
Alteração |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40 , do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, de avaliação da conformidade e de execução existentes nem com as autoridades estabelecidas nestes regulamentos. |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40 , do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, avaliação da conformidade, vigilância do mercado e execução existentes nem com as autoridades estabelecidas nestes regulamentos. |
|
|
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
Alteração 58
Proposta de regulamento
Considerando 30
|
|
Texto da Comissão |
Alteração |
(30) Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União, é apropriado classificá-los como de risco elevado ao abrigo do presente regulamento nos casos em que forem objeto de um procedimento de avaliação da conformidade realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, tais produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos e dispositivos médicos para diagnóstico in vitro. |
(30) Relativamente aos sistemas de IA que são componentes de segurança de produtos ou que são, eles próprios, produtos abrangidos pelo âmbito de determinada legislação de harmonização da União e enumerados no anexo II, é apropriado classificá-los como de risco elevado ao abrigo do presente regulamento nos casos em que forem objeto de um procedimento de avaliação da conformidade, a fim de assegurar a conformidade com os requisitos essenciais de segurança, realizado por um organismo terceiro de avaliação da conformidade nos termos dessa legislação de harmonização da União aplicável. Em particular, tais produtos são máquinas, brinquedos, ascensores, aparelhos e sistemas de proteção destinados a ser utilizados em atmosferas potencialmente explosivas, equipamentos de rádio, equipamentos sob pressão, equipamentos de embarcações de recreio, instalações por cabo, aparelhos a gás, dispositivos médicos e dispositivos médicos para diagnóstico in vitro.
|
Alteração 59
Proposta de regulamento
Considerando 31
|
|
Texto da Comissão |
Alteração |
(31) Classificar um sistema de IA como de risco elevado nos termos do presente regulamento não implica necessariamente que o produto cujo componente de segurança é o sistema de IA ou que o próprio sistema de IA enquanto produto seja considerado «de risco elevado», segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. Tal verifica-se no respeitante ao Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho47 e ao Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho48, que preveem a avaliação por terceiros da conformidade de produtos de risco médio e elevado. |
(Não se aplica à versão portuguesa.) |
__________________ |
|
47 Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos, que altera a Diretiva 2001/83/CE, o Regulamento (CE) n.º 178/2002 e o Regulamento (CE) n.º 1223/2009 e que revoga as Diretivas 90/385/CEE e 93/42/CEE do Conselho (JO L 117 de 5.5.2017, p. 1). |
|
48 Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos para diagnóstico in vitro e que revoga a Diretiva 98/79/CE e a Decisão 2010/227/UE da Comissão (JO L 117 de 5.5.2017, p. 176). |
|
Alteração 60
Proposta de regulamento
Considerando 32
|
|
Texto da Comissão |
Alteração |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá-los como de risco elevado se, em função da finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento. A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, e que estão enumerados numa das áreas e casos de utilização no anexo III, é apropriado classificá-los como de risco elevado se, em função da finalidade prevista, representarem um risco significativo de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, e quando o sistema de IA seja usado como um componente de segurança de uma infraestrutura de importância crítica, para o ambiente. Esse risco significativo de danos deve ser identificado avaliando, por um lado, o efeito desse risco no que diz respeito ao seu nível de gravidade, intensidade, probabilidade de ocorrência e duração combinada e, por outro, se o risco pode afetar um indivíduo, uma pluralidade de pessoas ou um grupo específico de pessoas. Essa combinação pode, por exemplo, resultar numa elevada gravidade mas baixa probabilidade de afetar uma pessoa singular, ou numa elevada probabilidade de afetar um grupo de pessoas com baixa intensidade durante um longo período, dependendo do contexto. A identificação desses sistemas baseia-se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
Alteração 61
Proposta de regulamento
Considerando 32-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(32-A) Os fornecedores cujos sistemas de IA se enquadrem num dos domínios e casos de utilização enumerados no anexo III que considerem que o seu sistema não representa um risco significativo de danos para a saúde, a segurança, os direitos fundamentais ou o ambiente devem informar as autoridades nacionais de controlo mediante a apresentação de uma notificação fundamentada. Tal pode assumir a forma de um resumo de uma página das informações pertinentes sobre o sistema de IA em questão, incluindo a sua finalidade prevista e a razão pela qual não representaria um risco significativo de danos para a saúde, a segurança, os direitos fundamentais ou o ambiente. A Comissão deve especificar critérios que permitam às empresas avaliar se o seu sistema representa esses riscos, bem como desenvolver um modelo de notificação fácil de utilizar e normalizado. Os fornecedores devem apresentar a notificação o mais cedo possível e, em qualquer caso, antes da colocação do sistema de IA no mercado ou da sua colocação em serviço, idealmente na fase de desenvolvimento, e devem ser livres de a colocar no mercado em qualquer momento após a notificação. No entanto, se a autoridade estimar que o sistema de IA em questão foi classificado incorretamente, deve opor-se à notificação no prazo de três meses. A objeção deve ser fundamentada e ser devidamente explicado por que razão o sistema de IA foi classificado incorretamente. O prestador deve conservar o direito de recorrer mediante a apresentação de mais argumentos. Se, decorridos os três meses, não tiver havido objeções à notificação, as autoridades nacionais de supervisão podem ainda intervir se o sistema de IA apresentar um risco a nível nacional, tal como para qualquer outro sistema de IA existente no mercado. As autoridades nacionais de controlo devem apresentar relatórios anuais ao Serviço IA, especificando as notificações recebidas e as decisões tomadas. |
Alteração 62
Proposta de regulamento
Considerando 33
|
|
Texto da Comissão |
Alteração |
(33) As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente importante no que diz respeito à idade, à etnia, ao sexo ou a deficiências das pessoas. Como tal, os sistemas de identificação biométrica à distância «em tempo real» e «em diferido» devem ser classificados como de risco elevado. Face aos riscos que estes dois tipos de sistemas de identificação biométrica à distância representam, ambos devem estar sujeitos a requisitos específicos relativos às capacidades de registo e à supervisão humana. |
Suprimido |
Alteração 63
Proposta de regulamento
Considerando 33-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(33-A) Uma vez que os dados biométricos constituem uma categoria especial de dados pessoais sensíveis em conformidade com o Regulamento (UE) n.º 2016/679, é adequado classificar como de risco elevado vários casos críticos de utilização de sistemas biométricos e baseados na biometria. Os sistemas de IA concebidos para serem utilizados na identificação biométrica de pessoas singulares e os sistemas de IA concebidos para serem utilizados para inferir sobre as características pessoais de pessoas singulares com base na biometria ou em dados biométricos, incluindo sistemas de reconhecimento de emoções, com exceção dos que são proibidos nos termos do presente regulamento, devem por conseguinte ser classificados como de risco elevado. Não devem ser abrangidos os sistemas de IA concebidos para serem utilizados na verificação biométrica, que inclui a autenticação, cujo único objetivo é confirmar que uma pessoa singular específica é quem afirma ser, e confirmar a identidade de uma pessoa singular com o único objetivo de ter acesso a um serviço, um dispositivo ou uma instalação (verificação um para um). Os sistemas biométricos e baseados na biometria previstos no direito da União para permitir a cibersegurança e medidas de proteção de dados pessoais não devem ser considerados como apresentando um risco significativo de danos para a saúde, a segurança e os direitos fundamentais.
|
Alteração 64
Proposta de regulamento
Considerando 34
|
|
Texto da Comissão |
Alteração |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo das redes de abastecimento de água, gás, aquecimento, eletricidade e infraestruturas digitais críticas, uma vez que a falha ou anomalia destes sistemas pode comprometer a segurança e a integridade dessas infraestruturas críticas ou pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. Os componentes de segurança das infraestruturas críticas, incluindo as infraestruturas digitais críticas, são sistemas utilizados para proteger diretamente a integridade física das infraestruturas críticas ou a saúde e a segurança das pessoas e dos bens. A falha ou a anomalia desses componentes podem conduzir diretamente a riscos para a integridade física das infraestruturas críticas e, por conseguinte, a riscos para a saúde e a segurança das pessoas e dos bens. Os componentes destinados a serem utilizados exclusivamente para fins de cibersegurança não deverão ser considerados componentes de segurança. Exemplos desses componentes de segurança podem incluir sistemas de monitorização da pressão da água ou sistemas de controlo de alarmes de incêndio em centros de computação em nuvem. |
Alteração 65
Proposta de regulamento
Considerando 35
|
|
Texto da Comissão |
Alteração |
(35) Os sistemas de IA utilizados no domínio da educação ou formação profissional, designadamente para determinar o acesso ou a afetação de pessoas a instituições de ensino e de formação profissional ou para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma, devem ser considerados de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação. |
(35) A implantação de sistemas de IA no ensino é fundamental para ajudar a modernizar os sistemas de ensino na sua totalidade, para reforçar a sua qualidade educativa, tanto em linha como não, e para acelerar a educação digital, tornando-a assim acessível a um público mais vasto. Os sistemas de IA utilizados no domínio da educação ou formação profissional, designadamente para determinar o acesso ou influenciar de forma substancial as decisões sobre admissão, ou para afetação de pessoas a instituições de ensino e de formação profissional, para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma, ou ainda para avaliar o grau de ensino adequado para um indivíduo e influenciar de forma substancial o nível de ensino e formação que as pessoas podem receber, ou a que serão capazes de aceder, ou monitorizar e detetar comportamentos proibidos de estudantes durante os testes, devem ser considerados sistemas de IA de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem ser particularmente intrusivos e violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação, por exemplo contra as mulheres, determinados grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. |
Alteração 66
Proposta de regulamento
Considerando 36
|
|
Texto da Comissão |
Alteração |
(36) Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões sobre promoções e despedimentos, de repartição de tarefas e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira e na subsistência dessas pessoas. O conceito de «relações contratuais relacionadas com o trabalho» deve abranger os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Em princípio, essas pessoas não devem ser consideradas «utilizadores» na aceção do presente regulamento. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações contratuais relacionadas com o trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ter ainda um impacto nos seus direitos à proteção de dados pessoais e à privacidade. |
(36) Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões ou para influenciar substancialmente decisões sobre a iniciação, promoções e despedimentos, de repartição personalizada de tarefas com base no comportamento individual, nas características pessoais ou em dados biométricos, e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira, na subsistência dessas pessoas e nos direitos dos trabalhadores. O conceito de «relações contratuais relacionadas com o trabalho» deve abranger de forma significativa os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações contratuais relacionadas com o trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ainda comprometer a essência dos seus direitos fundamentais à proteção de dados pessoais e à privacidade. O presente regulamento é aplicável sem prejuízo da competência da União e dos Estados-Membros para preverem regras mais específicas para a utilização de sistemas de IA em contexto laboral. |
Alteração 67
Proposta de regulamento
Considerando 37
|
|
Texto da Comissão |
Alteração |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado, é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas. |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, incluindo serviços de saúde e serviços essenciais, que abrangem mas não se limitam à habitação, eletricidade, aquecimento/refrigeração e internet, bem como as prestações necessárias para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, género, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. No entanto, os sistemas de IA previstos pelo direito da União para efeitos de deteção de fraudes na oferta de serviços financeiros não devem ser considerados de risco elevado nos termos do presente regulamento. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas, incluindo serviços de saúde e serviços essenciais, que abrangem mas não se limitam à habitação, eletricidade, aquecimento/refrigeração e internet, dependem dos mesmo e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. De igual forma, os sistemas de IA concebidos para serem utilizados para tomar decisões ou influenciar substancialmente as decisões sobre a elegibilidade das pessoas singulares para efeitos de seguros de saúde e de vida podem também ter um impacto significativo nos meios de subsistência das pessoas e podem violar os seus direitos fundamentais, nomeadamente limitando o acesso aos cuidados de saúde ou perpetuando a discriminação com base em características pessoais. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem também ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas.
|
Alteração 68
Proposta de regulamento
Considerando 37-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(37-A) Tendo em conta o papel e a responsabilidade das autoridades policiais e judiciais e o impacto das decisões que tomam para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou de execução de sanções penais, o recurso a alguns casos específicos de utilização de aplicações de IA na aplicação da lei deve ser classificado como de alto risco, designadamente nos casos em que possa potencialmente vir a afetar de forma significativa a vida ou os direitos fundamentais das pessoas. |
Alteração 69
Proposta de regulamento
Considerando 38
|
|
Texto da Comissão |
Alteração |
(38) As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas autoridades policiais em avaliações individuais de riscos, em polígrafos e em instrumentos semelhantes ou para detetar o estado emocional de uma pessoa singular, para detetar «falsificações profundas», para avaliar a fiabilidade dos elementos de prova em processos penais, para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser considerados sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais. |
(38) As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de desempenho, exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas ou em nome das autoridades policiais, ou pelas agências, serviços ou organismos da União como apoio às autoridades policiais, em polígrafos e em instrumentos semelhantes na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável, para avaliar a fiabilidade dos elementos de prova em processos penais, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser classificados como sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais. A utilização de ferramentas de IA pelas autoridades policiais e judiciárias não deve tornar-se um fator de desigualdade, fratura social ou exclusão. Não se deve descurar o impacto da utilização de ferramentas de IA nos direitos de defesa dos suspeitos, nomeadamente a dificuldade de obter informações significativas sobre o seu funcionamento e a consequente dificuldade em contestar os seus resultados em tribunal, em particular quando se trate de indivíduos sob investigação. |
Alteração 70
Proposta de regulamento
Considerando 39
|
|
Texto da Comissão |
Alteração |
(39) Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por autoridades públicas competentes incumbidas de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, ou para detetar o estado emocional de uma pessoa singular; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho49, no Regulamento (CE) n.º 810/2009 do Parlamento Europeu e do Conselho50 e noutra legislação aplicável. |
(39) Os sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras afetam pessoas que, muitas vezes, se encontram numa posição particularmente vulnerável e que dependem do resultado das ações das autoridades públicas competentes. Como tal, a exatidão, a natureza não discriminatória e a transparência dos sistemas de IA utilizados nesses contextos são particularmente importantes para garantir o respeito dos direitos fundamentais das pessoas em causa, nomeadamente os seus direitos à livre circulação, à não discriminação, à proteção da vida privada e dos dados pessoais, à proteção internacional e a uma boa administração. Deste modo, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por ou em nome das autoridades públicas competentes, ou por agências, serviços ou organismos da União incumbidos de funções no domínio da gestão da migração, do asilo e do controlo das fronteiras, como polígrafos e instrumentos semelhantes, na medida em que a sua utilização seja permitida ao abrigo do direito nacional e da União aplicável; para avaliar determinados riscos colocados pelas pessoas singulares que entram no território de um Estado-Membro ou pedem um visto ou asilo; para verificar a autenticidade dos documentos apresentados pelas pessoas singulares; para auxiliar as autoridades públicas competentes na análise e avaliação da veracidade das provas relacionadas com os pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, com o objetivo de estabelecer a elegibilidade das pessoas singulares que requerem determinado estatuto; para acompanhar, vigiar ou tratar os dados pessoais no contexto de atividades de gestão das fronteiras, para efeitos de deteção, reconhecimento ou identificação de pessoas singulares; para a antecipação ou previsão de tendências relacionadas com os movimentos migratórios e a passagem das fronteiras. Os sistemas de IA no domínio da gestão da migração, do asilo e do controlo das fronteiras abrangidos pelo presente regulamento devem cumprir os requisitos processuais estabelecidos na Diretiva 2013/32/UE do Parlamento Europeu e do Conselho49, no Regulamento (CE) n.º 810/2009 do Parlamento Europeu e do Conselho50 e noutra legislação aplicável. Os Estados-Membros ou as instituições da União Europeia não devem, em circunstância alguma, recorrer a sistemas de IA utilizados na gestão da migração, do asilo e do controlo das fronteiras para contornar as suas obrigações internacionais ao abrigo da Convenção relativa ao Estatuto dos Refugiados, de 28 de julho de 1951, conforme alterada pelo Protocolo de 31 de janeiro de 1967, e tais sistemas também não devem ser utilizados para violar de algum modo o princípio da não repulsão ou para negar o acesso a vias legais seguras e eficazes de entrada no território da União, incluindo o direito a proteção internacional. |
__________________ |
__________________ |
49 Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa a procedimentos comuns de concessão e retirada do estatuto de proteção internacional (JO L 180 de 29.6.2013, p. 60). |
49 Diretiva 2013/32/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa a procedimentos comuns de concessão e retirada do estatuto de proteção internacional (JO L 180 de 29.6.2013, p. 60). |
50 Regulamento (CE) n.º 810/2009 do Parlamento Europeu e do Conselho, de 13 de julho de 2009, que estabelece o Código Comunitário de Vistos (Código de Vistos) (JO L 243 de 15.9.2009, p. 1). |
50 Regulamento (CE) n.º 810/2009 do Parlamento Europeu e do Conselho, de 13 de julho de 2009, que estabelece o Código Comunitário de Vistos (Código de Vistos) (JO L 243 de 15.9.2009, p. 1). |
Alteração 71
Proposta de regulamento
Considerando 40
|
|
Texto da Comissão |
Alteração |
(40) Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como de risco elevado os sistemas de IA concebidos para auxiliar as autoridades judiciárias na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos. |
(40) Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou um órgão administrativo, ou em seu nome, para auxiliar as autoridades judiciárias ou órgãos administrativos na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos, ou utilizados de idêntica forma num contexto de resolução alternativa de litígios. A utilização de ferramentas de inteligência artificial pode auxiliar mas não deve substituir o poder de decisão dos magistrados ou a independência judicial, uma vez que a decisão final deve continuar a ser uma atividade humana. Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos. |
Alteração 72
Proposta de regulamento
Considerando 40-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(40-A) A fim de fazer face aos riscos de interferência externa indevida no direito de voto consagrado no artigo 39.º da Carta, e de efeitos desproporcionados nos processos democráticos, na democracia e no Estado de direito, os sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo, ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos, devem ser classificados como sistemas de IA de risco elevado, com exceção dos sistemas de IA a cuja ação as pessoas singulares não estejam diretamente expostas, tais como instrumentos utilizados para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico. |
Alteração 73
Proposta de regulamento
Considerando 40-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(40-B) Tendo em conta a escala das pessoas singulares que utilizam os serviços prestados por plataformas de redes sociais designadas como plataformas em linha de muito grande dimensão, essas plataformas em linha podem ser utilizadas de uma forma que influencie fortemente a segurança em linha, a formação da opinião pública e do discurso, os processos eleitorais e democráticos e as preocupações sociais. Por conseguinte, é adequado que os sistemas de IA utilizados por essas plataformas em linha nos seus sistemas de recomendação estejam sujeitos ao presente regulamento, a fim de assegurar que os sistemas de IA cumprem os requisitos estabelecidos no presente regulamento, incluindo os requisitos técnicos em matéria de governação de dados, documentação técnica e rastreabilidade, transparência, supervisão humana, exatidão e solidez. O cumprimento do presente regulamento deve permitir que essas plataformas em linha de muito grande dimensão cumpram as suas obrigações mais amplas em matéria de avaliação e atenuação dos riscos previstas no artigo 34.º e 35.º do Regulamento (UE) 2022/2065. As obrigações previstas no presente regulamento não prejudicam o Regulamento (UE) 2022/2065 e devem complementar as obrigações exigidas nos termos do Regulamento (UE) 2022/2065 quando a plataforma de rede social tiver sido designada como plataforma em linha de muito grande dimensão. Tendo em conta o impacto a nível europeu das plataformas de redes sociais designadas como plataformas em linha de muito grande dimensão, as autoridades designadas ao abrigo do Regulamento (UE) 2022/2065 devem agir como autoridades policiais para efeitos de aplicação desta disposição. |
Alteração 74
Proposta de regulamento
Considerando 41
|
|
Texto da Comissão |
Alteração |
(41) A classificação de um sistema de IA como de risco elevado por força do presente regulamento não deve ser interpretada como uma indicação de que a utilização do sistema é necessariamente lícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais ou de utilização de polígrafos e de instrumentos semelhantes ou de outros sistemas para detetar o estado emocional de pessoas singulares. Essa utilização deve continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor. O presente regulamento não pode ser entendido como um fundamento jurídico para o tratamento de dados pessoais, incluindo de categorias especiais de dados pessoais, se for caso disso. |
(41) A classificação de um sistema de IA como um sistema de IA de risco elevado por força do presente regulamento não deve ser interpretada como uma indicação de que a utilização do sistema é necessariamente lícita ou ilícita ao abrigo de outros atos do direito da União ou ao abrigo do direito nacional compatível com o direito da União, por exemplo, em matéria de proteção de dados pessoais. Essa utilização deve continuar sujeita ao cumprimento dos requisitos aplicáveis resultantes da Carta e dos atos do direito derivado da União e do direito nacional em vigor. |
Alteração 75
Proposta de regulamento
Considerando 41-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(41-A) Atualmente, aplicam-se ou são relevantes para os sistemas de IA uma série de regras juridicamente vinculativas a nível nacional, europeu e internacional, nomeadamente mas não exclusivamente o direito primário da UE (os Tratados da União Europeia e a respetiva Carta dos Direitos Fundamentais), o direito derivado da UE (como o Regulamento Geral sobre a Proteção de Dados, a Diretiva Responsabilidade dos Produtos, o Regulamento relativo ao livre fluxo de dados não pessoais, as diretivas relativas ao combate à discriminação, a legislação de proteção dos consumidores e as diretivas relativas à segurança e saúde no trabalho), os tratados das Nações Unidas em matéria de direitos humanos e as convenções do Conselho da Europa (como a Convenção Europeia dos Direitos Humanos), bem como o direito nacional. Além das regras aplicáveis a nível transversal, existem várias regras setoriais específicas para determinadas aplicações de IA (por exemplo, o Regulamento Dispositivos Médicos no setor da saúde). |
Alteração 76
Proposta de regulamento
Considerando 42
|
|
Texto da Comissão |
Alteração |
(42) Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço no mercado da União para os utilizadores e as pessoas afetadas, devem aplicar-se determinados requisitos obrigatórios, tendo em conta a finalidade de utilização prevista do sistema e de acordo com o sistema de gestão de riscos a estabelecer pelo fornecedor. |
(42) Para atenuar os riscos dos sistemas de IA de risco elevado colocados no mercado ou colocados em serviço no mercado da União para os responsáveis pela implantação e as pessoas afetadas, devem aplicar-se determinados requisitos obrigatórios, tendo em conta a finalidade de utilização prevista ou a utilização razoavelmente previsível do sistema e de acordo com o sistema de gestão de riscos a estabelecer pelo fornecedor. Tais requisitos devem ser orientados por objetivos, adequados à finalidade, razoáveis e eficazes, e não devem impor novos encargos regulamentares ou custos aos operadores. |
Alteração 77
Proposta de regulamento
Considerando 43
|
|
Texto da Comissão |
Alteração |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade e à pertinência dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos responsáveis pela implantação, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, bem como para o ambiente, a democracia e o Estado de direito, em função da finalidade prevista ou de uma utilização indevida razoavelmente previsível do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
Alteração 78
Proposta de regulamento
Considerando 44
|
|
Texto da Comissão |
Alteração |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
(44) A disponibilidade de dados de elevada qualidade desempenha um papel vital para estruturar e garantir o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne uma fonte de discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, e se for caso disso, validação e teste, incluindo os rótulos, devem ser suficientemente relevantes, representativos, devidamente controlados em termos de erros e tão completos quanto possível, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado, devendo ser dada especial atenção à atenuação de eventuais enviesamentos dos conjuntos de dados, que possam resultar em riscos para os direitos fundamentais ou em discriminação para as pessoas afetadas pelo sistema de IA de risco elevado. Os preconceitos podem, por exemplo, ser inerentes a conjuntos de dados de base, especialmente quando dados históricos são usados, inseridos pelos criadores dos algoritmos ou gerados na aplicação dos sistemas a situações reais. Os resultados dos sistemas de IA são influenciados por preconceitos inerentes que tendem a aumentar gradualmente, e, desse modo, a perpetuar e a ampliar a discriminação existente, em particular de pessoas pertencentes a determinados grupos vulneráveis ou étnicos, ou determinadas comunidades racializadas. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do contexto geográfico, do respetivo enquadramento, do contexto comportamental ou funcional ou do contexto no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem, a título excecional e na sequência da aplicação de todas as condições válidas estabelecidas no presente regulamento e no Regulamento (UE) 2016/679, na Diretiva (UE) 2016/680 e no Regulamento (UE) 2018/1725,poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. Os preconceitos negativos devem ser entendidos como enviesamentos que criam um efeito discriminatório direto ou indireto contra uma pessoa singular. Os requisitos relacionados com a governação dos dados podem ser cumpridos recorrendo a terceiros que ofereçam serviços de conformidade certificados, incluindo a verificação da governação de dados, a integridade dos conjuntos de dados e as práticas de formação, validação e teste de dados. |
Alteração 79
Proposta de regulamento
Considerando 45
|
|
Texto da Comissão |
Alteração |
(45) No contexto do desenvolvimento de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, instalações de teste e experimentação e investigadores, devem poder aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA. |
(45) No contexto do desenvolvimento e avaliação de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, instalações de teste e experimentação e investigadores, devem poder aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA. |
Alteração 80
Proposta de regulamento
Considerando 45-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(45-A) O direito à privacidade e à proteção de dados pessoais deve ser garantido ao longo de todo o ciclo de vida do sistema de IA. A este respeito, os princípios da minimização dos dados e da proteção de dados desde a conceção e por norma, tal como estabelecidos na legislação da União em matéria de proteção de dados, são essenciais quando o tratamento de dados envolve riscos significativos para os direitos fundamentais das pessoas. Os fornecedores e os utilizadores de sistemas de IA devem aplicar medidas técnicas e organizativas modernas, a fim de proteger esses direitos. Essas medidas devem incluir não só a anonimização e a cifragem mas também a utilização de tecnologias cada vez mais disponíveis, que permitem a introdução de algoritmos nos dados e a obtenção de informações valiosas sem a transmissão entre as partes ou a cópia desnecessária dos próprios dados em bruto ou estruturados. |
Alteração 81
Proposta de regulamento
Considerando 46
|
|
Texto da Comissão |
Alteração |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento, é essencial dispor de informações sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada. |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento é essencial dispor de informações compreensíveis sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo da respetiva vida útil. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre devidamente atualizada ao longo de todo o ciclo de vida do sistema de IA. Os sistemas de IA podem ter um grande e importante impacto ambiental e ocasionar um elevado consumo de energia durante o seu ciclo de vida. A fim de melhor compreender o impacto dos sistemas de IA no ambiente, a documentação técnica elaborada pelos fornecedores deve incluir informações sobre o consumo de energia do sistema de IA, incluindo o consumo durante o desenvolvimento e o consumo previsto durante a utilização. Essas informações devem ter em conta a legislação nacional e da União aplicável. Estas informações comunicadas devem ser compreensíveis, comparáveis e verificáveis e, para o efeito, a Comissão deve elaborar orientações sobre uma metodologia harmonizada para o cálculo e a comunicação dessas informações. Para garantir que é possível uma documentação técnica única importa harmonizar, tanto quanto possível, os termos e as definições relacionados com essa documentação obrigatória e qualquer documentação exigida pela legislação aplicável da União Europeia. |
Alteração 82
Proposta de regulamento
Considerando 46-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(46-A) Os sistemas de IA devem ter em consideração métodos de última geração e as normas relevantes aplicáveis para reduzir o consumo de energia e de recursos e a produção de resíduos, bem como para aumentar a sua eficiência energética e a eficiência global do sistema. Os aspetos ambientais dos sistemas de IA significativos para efeitos do presente regulamento são o consumo de energia do sistema de IA na fase de desenvolvimento, formação e implantação, bem como o registo, a comunicação e o armazenamento destes dados. A conceção dos sistemas de IA deve permitir a medição e o registo do consumo de energia e de recursos em cada fase de desenvolvimento, formação e implantação. A monitorização e a comunicação das emissões dos sistemas de IA devem ser sólidas, transparentes, coerentes e exatas. A fim de assegurar a aplicação uniforme do presente regulamento e a estabilidade do ecossistema jurídico para os fornecedores e responsáveis pela implantação no mercado único, a Comissão deve desenvolver uma especificação comum para a metodologia destinada a cumprir o requisito de apresentação de relatórios e documentação sobre o consumo de energia e de recursos durante o desenvolvimento, a formação e a implantação. Essas especificações comuns sobre a metodologia de medição podem permitir desenvolver uma base de referência sobre a qual a Comissão possa decidir melhor se são necessárias futuras intervenções regulamentares, após a realização de uma avaliação de impacto que tenha em conta a legislação em vigor. |
Alteração 83
Proposta de regulamento
Considerando 46-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(46-B) A fim de alcançar os objetivos do presente regulamento e contribuir para os objetivos ambientais da União, assegurando simultaneamente o bom funcionamento do mercado interno, pode ser necessário estabelecer recomendações e orientações e, eventualmente, metas para a sustentabilidade. Para o efeito, a Comissão tem o direito de desenvolver uma metodologia que contribua para a existência de indicadores-chave de desempenho (ICD) e uma referência para os Objetivos de Desenvolvimento Sustentável (ODS). O objetivo deve ser, em primeiro lugar, permitir uma comparação equitativa entre as opções de aplicação da IA, proporcionando incentivos para promover a utilização de tecnologias de IA mais eficientes que respondam às preocupações em matéria de energia e de recursos. Para atingir este objetivo, o presente regulamento deve prever os meios para estabelecer uma recolha de dados de base que forem comunicados sobre as emissões provenientes do desenvolvimento, formação e implantação. |
Alteração 84
Proposta de regulamento
Considerando 47-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(47-A) Estes requisitos de transparência e explicabilidade das decisões tomadas pela IA também devem ajudar a contrariar os efeitos dissuasores da assimetria digital e dos chamados «padrões obscuros» que visem pessoas individuais e o seu consentimento informado. |
Alteração 85
Proposta de regulamento
Considerando 49
|
|
Texto da Comissão |
Alteração |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. O nível e as métricas de exatidão devem ser comunicadas aos utilizadores. |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. As métricas de desempenho e o seu nível esperado devem ser definidos com o objetivo principal de atenuar os riscos e o impacto negativo do sistema de IA. O nível e as métricas esperadas de desempenho devem ser comunicadas aos responsáveis pela implantação de forma clara, transparente, facilmente compreensível e em moldes inteligíveis. A declaração de indicadores de desempenho não pode ser considerada prova de níveis futuros, mas é necessário aplicar métodos pertinentes para assegurar níveis coerentes durante a utilização. Embora existam organizações de normalização para estabelecer normas, é necessária coordenação em matéria de avaliação comparativa para determinar a forma como estes requisitos e características normalizados dos sistemas de IA devem ser medidos. O Comité Europeu para a Inteligência Artificial deve reunir as autoridades nacionais e internacionais de metrologia e de avaliação comparativa e fornecer orientações não vinculativas para abordar os aspetos técnicos de como medir os níveis adequados de desempenho e robustez. |
Alteração 86
Proposta de regulamento
Considerando 50
|
|
Texto da Comissão |
Alteração |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. Os utilizadores do sistema de IA devem tomar medidas para assegurar que o eventual compromisso entre a robustez e a exatidão não conduza a resultados discriminatórios ou negativos para os subgrupos minoritários. |
Alteração 87
Proposta de regulamento
Considerando 51
|
|
Texto da Comissão |
Alteração |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou por em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal-intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou pôr em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos ou de confidencialidade), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado, bem como os organismos notificados, as autoridades nacionais competentes e as autoridades de fiscalização do mercado, devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. Os sistemas de IA de risco elevado devem ser acompanhados de soluções e correções de segurança ao longo da vida do produto, ou, em caso de ausência de dependência de um produto específico, durante um período que deve ser declarado pelo fabricante. |
Alteração 88
Proposta de regulamento
Considerando 53-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(53-A) Enquanto signatários da Convenção das Nações Unidas sobre os Direitos das Pessoas com Deficiência (CNUDPD), a União Europeia e os seus Estados-Membros estão legalmente obrigados a proteger as pessoas com deficiência contra a discriminação e a promover a sua igualdade, a assegurar que as pessoas com deficiência gozem da mesma igualdade de acesso que outros às tecnologias e sistemas de informação e comunicação e a assegurar o respeito pela privacidade das pessoas com deficiência. Tendo em conta a crescente importância e utilização de sistemas de IA, a aplicação estrita dos princípios de conceção universal a todas as novas tecnologias e serviços deverá garantir o acesso pleno, igual e sem restrições de todas as pessoas potencialmente afetadas pelas tecnologias de IA ou que utilizem essas tecnologias, incluindo as pessoas com deficiência, de uma forma que tenha plenamente em conta a sua inerente dignidade e diversidade. Por conseguinte, é essencial que os fornecedores assegurem a plena conformidade com os requisitos de acessibilidade, incluindo a Diretiva (UE) 2016/2102 e a Diretiva (UE) 2019/882. Os fornecedores devem assegurar o cumprimento destes requisitos desde a conceção. Por conseguinte, as medidas necessárias devem ser integradas, tanto quanto possível, na conceção do sistema de IA de risco elevado. |
Alteração 89
Proposta de regulamento
Considerando 54
|
|
Texto da Comissão |
Alteração |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós-comercialização capaz. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós-comercialização capaz. Para os prestadores que já dispõem de sistemas de gestão da qualidade baseados em normas como a norma ISO 9001 ou outras normas pertinentes, não se deve esperar uma duplicação total do sistema de gestão da qualidade, mas sim uma adaptação dos seus sistemas existentes a determinados aspetos relacionados com o cumprimento dos requisitos específicos do presente regulamento. Tal deve também refletir-se em futuras atividades de normalização ou orientações adotadas pela Comissão a este respeito. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. |
Alteração 90
Proposta de regulamento
Considerando 56
|
|
Texto da Comissão |
Alteração |
(56) Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa fornecer às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, caso não seja possível identificar um importador, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União. |
(56) Para permitir a execução do presente regulamento e criar condições de concorrência equitativas para os operadores, tendo ainda em conta as diferentes formas de disponibilização de produtos digitais, é importante assegurar que, em qualquer circunstância, uma pessoa estabelecida na União possa fornecer às autoridades todas as informações necessárias sobre a conformidade de um sistema de IA. Como tal, antes de disponibilizarem os seus sistemas de IA na União, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União. |
Alteração 91
Proposta de regulamento
Considerando 58
|
|
Texto da Comissão |
Alteração |
(58) Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os utilizadores. Em particular, os utilizadores devem utilizar os sistemas de IA de risco elevado de acordo com as instruções de utilização e devem ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso. |
(58) Dada a natureza dos sistemas de IA e os riscos para a segurança e os direitos fundamentais possivelmente associados à sua utilização, nomeadamente no que respeita à necessidade de assegurar um controlo adequado do desempenho de um sistema de IA num cenário real, é apropriado determinar responsabilidades específicas para os responsáveis pela implantação. Em particular, os responsáveis pela implantação devem utilizar os sistemas de IA de risco elevado de acordo com as instruções de utilização e devem ser equacionadas outras obrigações relativas ao controlo do funcionamento dos sistemas de IA e à manutenção de registos, se for caso disso. |
Alteração 92
Proposta de regulamento
Considerando 58-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(58-A) Ainda que os riscos relacionados com os sistemas de IA possam ter origem na sua conceção, tais riscos também podem decorrer da forma como os referidos sistemas de IA são utilizados. Os responsáveis pela implantação de sistemas de IA de risco elevado desempenham, por conseguinte, um papel fundamental na garantia da proteção dos direitos fundamentais, complementando as obrigações do fornecedor aquando do desenvolvimento do sistema de IA. Os responsáveis pela utilização estão melhor posicionados para entender, na prática, de que forma o sistema de IA de risco elevado será utilizado, pelo que podem identificar potenciais riscos significativos que não foram previstos na fase de desenvolvimento, graças a um conhecimento mais preciso do contexto de utilização, das pessoas ou grupos de pessoas suscetíveis de serem afetados, incluindo os grupos marginalizados e vulneráveis. Os responsáveis pela implantação devem identificar estruturas de governação adequadas nesse contexto específico de utilização, tais como mecanismos de supervisão humana, procedimentos de tratamento de queixas e procedimentos de recurso, uma vez que as escolhas nas estruturas de governação podem ser fundamentais para atenuar os riscos para os direitos fundamentais em casos concretos de utilização. A fim de garantir de forma eficiente a proteção dos direitos fundamentais, o responsável pela implantação de sistemas de IA de risco elevado deve, por conseguinte, realizar, antes de colocar em funcionamento os sistemas de IA, uma avaliação do impacto sobre os direitos fundamentais. A avaliação do impacto deve ser acompanhada de um plano detalhado que descreva as medidas ou ferramentas que ajudarão a atenuar os riscos para os direitos fundamentais identificados o mais tardar no momento da entrada em serviço. Se esse plano não puder ser identificado, o responsável pela implantação deve abster-se de colocar o sistema em serviço. Ao realizar esta avaliação de impacto, o responsável pela implantação deve notificar a autoridade nacional de controlo e, na medida do possível, as partes interessadas pertinentes, bem como os representantes de grupos de pessoas suscetíveis de serem afetados pelo sistema de IA, a fim de recolher as informações pertinentes consideradas necessárias para realizar a avaliação de impacto, existindo um incentivo para que seja disponibilizado publicamente o resumo da sua avaliação de impacto sobre os direitos fundamentais no seu sítio Web em linha. Estas obrigações não devem aplicar-se às PME que, devido à falta de recursos, possam ter dificuldade em realizar essa consulta. No entanto, devem também procurar envolver esses representantes na avaliação do impacto sobre os direitos fundamentais. Além disso, tendo em conta o potencial impacto e a necessidade de supervisão e controlo democráticos, os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos, organismos e agências da União, bem como os responsáveis pela implantação que sejam empresas designadas como controladores de acesso nos termos do Regulamento (UE) 2022/1925, devem ser obrigados a registar a utilização de qualquer sistema de IA de risco elevado numa base de dados pública. Outros responsáveis pela implantação podem inscrever-se voluntariamente. |
Alteração 93
Proposta de regulamento
Considerando 59
|
|
Texto da Comissão |
Alteração |
(59) É apropriado definir que o utilizador do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado, salvo se o sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional. |
(59) É apropriado definir que o responsável pela implantação do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado, salvo se o sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional. |
Alteração 94
Proposta de regulamento
Considerando 60
|
|
Texto da Comissão |
Alteração |
(60) Face à complexidade da cadeia de valor da inteligência artificial, determinados terceiros, nomeadamente os envolvidos na venda e no fornecimento de software, ferramentas e componentes de software, modelos pré-treinados e dados, ou os fornecedores de serviços de rede, devem cooperar, consoante o caso, com os fornecedores e os utilizadores, para permitir que estes cumpram as obrigações estabelecidas no presente regulamento, e com as autoridades competentes estabelecidas no presente regulamento. |
(60) Na cadeia de valor da IA muitas entidades oferecem frequentemente ferramentas e serviços, mas também componentes ou processos, que são depois incorporados pelo fornecedor no sistema de IA, inclusivamente relacionados com a recolha e pré-tratamento de dados, formação com base em modelos, reciclagem, ensaio e avaliação de modelos, integração em software ou outros aspetos do desenvolvimento de modelos. As entidades envolvidas podem disponibilizar a sua oferta comercial direta ou indiretamente, através de interfaces, como as interfaces de programação de aplicações (IPA), distribuídas ao abrigo de licenças gratuitas e de fonte aberta, mas também cada vez mais por plataformas profissionais de IA, revenda de parâmetros de formação, kits «faça você mesmo» para construção de modelos ou da oferta de acesso pago a uma arquitetura para modelos que permita o seu desenvolvimento e treino. Face a esta complexidade da cadeia de valor da IA, todos os terceiros pertinentes, em especial os envolvidos no desenvolvimento, na venda e no fornecimento comercial de ferramentas de software, componentes, modelos pré-treinados ou dados incorporados no sistema de IA, ou os fornecedores de serviços de rede, devem, sem comprometer os seus próprios direitos de propriedade intelectual ou segredos comerciais, disponibilizar as informações, a formação ou os conhecimentos especializados necessários e cooperar, conforme adequado, com os fornecedores para permitir o seu controlo sobre todos os aspetos pertinentes das obrigações inerentes ao sistema de IA que sejam abrangidas pelo presente regulamento. A fim de permitir uma governação da cadeia de valor da IA que seja eficaz em termos de custos, o nível de controlo deve ser explicitamente divulgado por cada terceiro que disponibilize ao fornecedor um instrumento, serviço, componente ou processo, que será posteriormente incorporado pelo fornecedor no sistema de IA. |
Alteração 95
Proposta de regulamento
Considerando 60-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-A) Quando uma das partes se encontra numa posição de negociação mais forte, existe o risco de essa parte poder utilizar essa posição em detrimento da outra parte contratante quando negoceiam o fornecimento de ferramentas, serviços, componentes ou processos utilizados ou integrados num sistema de IA de risco elevado ou as medidas corretivas em caso de violação ou de cessação de obrigações conexas. Esses desequilíbrios contratuais prejudicam, em especial, as micro, pequenas e médias empresas, bem como as empresas em fase de arranque, a menos que sejam detidas ou subcontratadas por uma empresa capaz de compensar adequadamente o subcontratante, uma vez que não dispõem de uma capacidade significativa para negociar as condições do acordo contratual e não podem ter outra alternativa senão aceitar cláusulas contratuais do tipo «pegar ou largar». Por conseguinte, as cláusulas contratuais abusivas que regulam o fornecimento de ferramentas, serviços, componentes ou processos que são utilizadas ou integradas num sistema de IA de risco elevado ou as medidas corretivas em caso de violação ou de cessação de obrigações conexas não devem ser vinculativas para as micro, pequenas ou médias empresas, e empresas em fase de arranque, quando lhes tenham sido impostas unilateralmente. |
Alteração 96
Proposta de regulamento
Considerando 60-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-B) As regras relativas às cláusulas contratuais devem ter em conta o princípio da liberdade contratual enquanto conceito essencial nas relações entre empresas. Por conseguinte, nem todas as cláusulas contratuais devem ser sujeitas a um teste do caráter abusivo, mas apenas as cláusulas impostas unilateralmente às micro, pequenas e médias empresas. Tal diz respeito a situações do tipo «pegar ou largar», em que uma parte propõe uma determinada cláusula contratual e a micro, pequena ou média empresa ou empresa em fase de arranque não pode influenciar o teor dessa cláusula, apesar de tentar negociá-la. Uma cláusula contratual que é simplesmente proposta por uma das partes e aceite pela micro, pequena ou média empresa ou empresa em fase de arranque ou uma cláusula que é negociada e subsequentemente acordada de forma alterada entre as partes contratantes não deve ser considerada como imposta unilateralmente. |
Alteração 97
Proposta de regulamento
Considerando 60-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-C) Além disso, as regras relativas a cláusulas contratuais abusivas só devem ser aplicáveis aos elementos de um contrato relativos ao fornecimento de ferramentas, serviços, componentes ou processos utilizados ou integrados num sistema de IA de risco elevado ou às medidas corretivas em caso de violação ou de cessação de obrigações conexas. As outras partes do mesmo contrato, que não estejam relacionadas com esses elementos, não devem ser sujeitas ao teste do caráter abusivo previsto no presente regulamento. |
Alteração 98
Proposta de regulamento
Considerando 60-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-D) Os critérios de identificação das cláusulas contratuais abusivas só devem ser aplicados a cláusulas contratuais excessivas, em caso de abuso de uma posição negocial mais forte. A grande maioria das cláusulas contratuais que são comercialmente mais favoráveis para uma parte do que para a outra, incluindo as que são normais nos contratos entre empresas, constituem uma expressão normal do princípio da liberdade contratual e continuam a ser aplicáveis. Caso uma cláusula contratual não conste da lista de cláusulas que são sempre consideradas abusivas, aplica-se a disposição geral relativa ao caráter abusivo. A esse respeito, as cláusulas enumeradas como cláusulas abusivas devem servir de referência para a interpretação da disposição geral relativa ao caráter abusivo. |
Alteração 99
Proposta de regulamento
Considerando 60-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-E) Os modelos de base são um desenvolvimento recente, em que os modelos de IA são desenvolvidos a partir de algoritmos concebidos para otimizar a generalidade e a versatilidade dos resultados. Esses modelos são frequentemente treinados com um vasta gama de fontes de dados e com grandes quantidades de dados para realizar um grande número de tarefas a jusante, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados. O modelo de base pode ser unimodal ou multimodal, treinado através de vários métodos, como a aprendizagem supervisionada ou a aprendizagem reforçada. Os sistemas de IA com uma finalidade específica prevista e os sistemas de IA de finalidade geral podem ser uma aplicação de um modelo de base, o que significa que cada modelo de base pode ser reutilizado em inúmeros sistemas de IA a jusante ou em sistemas de IA de finalidade geral. Esses modelos têm uma importância cada vez maior para muitas aplicações e sistemas a jusante. |
Alteração 100
Proposta de regulamento
Considerando 60-F (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-F) No caso dos modelos de base prestados como um serviço, como o acesso a IPA, a cooperação com os prestadores a jusante deve prolongar-se ao longo do período durante o qual esse serviço é prestado e suportado, a fim de permitir uma atenuação adequada dos riscos, a menos que o fornecedor do modelo de base transfira o modelo de treino, bem como informações exaustivas e adequadas sobre os conjuntos de dados e o processo de desenvolvimento do sistema ou restrinja o serviço, como o acesso a IPA, de modo a que o fornecedor a jusante possa cumprir plenamente o presente regulamento sem mais apoio do fornecedor original do modelo de base. |
Alteração 101
Proposta de regulamento
Considerando 60-G (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-G) Tendo em conta a natureza e a complexidade da cadeia de valor dos sistemas de IA, é essencial esclarecer o papel dos intervenientes que contribuem para o desenvolvimento desses sistemas. Existe uma grande incerteza sobre como os modelos de base vão evoluir, tanto em termos de tipologia dos modelos como em termos de autogovernação. Por conseguinte, é essencial esclarecer a situação jurídica dos fornecedores de modelos de base. Tendo em conta a sua complexidade e impacto imprevisível e a falta de controlo do fornecedor de IA a jusante sobre o desenvolvimento do modelo de base e o consequente desequilíbrio de poder, e a fim de assegurar uma partilha equitativa das responsabilidades ao longo da cadeia de valor da IA, esses modelos devem estar sujeitos a requisitos e obrigações proporcionados e mais específicos ao abrigo do presente regulamento, nomeadamente, os modelos de base devem avaliar e atenuar os riscos e danos potenciais através de uma conceção, ensaio e análise adequados, devem aplicar medidas de governação de dados, incluindo a avaliação de enviesamentos, e cumprir os requisitos de conceção técnica, a fim de assegurar níveis adequados de desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança e devem cumprir as normas ambientais. Estas obrigações devem ser acompanhadas de normas. Além disso, os modelos de base devem estar sujeitos a obrigações de informação e preparar toda a documentação técnica necessária para que os potenciais fornecedores a jusante possam cumprir as suas obrigações ao abrigo do presente regulamento. Os modelos de base generativa devem assegurar a transparência quanto ao facto de o conteúdo ser gerado por um sistema de IA e não por seres humanos. Esses requisitos e obrigações específicos não equivalem a considerar os modelos de base como sistemas de IA de risco elevado, mas devem garantir a concretização dos objetivos do presente regulamento de assegurar um nível elevado de proteção dos direitos fundamentais, da saúde, da segurança, do ambiente, da democracia e do Estado de direito. Os modelos pré-treinados desenvolvidos para um conjunto mais restrito, menos geral e mais limitado de aplicações e que não podem ser adaptados a uma vasta gama de tarefas, como os sistemas de IA polivalentes simples, não devem ser considerados modelos de base para efeitos do presente regulamento, devido à sua maior interpretabilidade, o que torna o seu comportamento menos imprevisível. |
Alteração 102
Proposta de regulamento
Considerando 60-H (novo)
|
|
Texto da Comissão |
Alteração |
|
(60-H) Tendo em conta a natureza dos modelos de base, há falta de conhecimentos especializados em avaliação da conformidade e os métodos de auditoria por terceiros ainda estão a ser desenvolvidos. O próprio setor está, por conseguinte, a desenvolver novas formas de avaliar os modelos fundamentais que cumprem, em parte, o objetivo de auditoria (como a avaliação de modelos, a simulação de ataques ou as técnicas de verificação e validação da aprendizagem automática). Essas avaliações internas dos modelos de base devem ser aplicáveis na generalidade (por exemplo, independentemente dos canais de distribuição, da modalidade e dos métodos de desenvolvimento), a fim de abordar os riscos específicos desses modelos, tendo em conta as práticas mais avançadas do setor, e centrar-se no desenvolvimento de conhecimentos e controlos técnicos suficientes sobre o modelo, na gestão de riscos razoavelmente previsíveis e na análise e ensaio exaustivos do modelo através de medidas adequadas, como a inclusão de avaliadores independentes. Uma vez que os modelos de base são um desenvolvimento novo e em rápida evolução no domínio da inteligência artificial, é conveniente que a Comissão e o Serviço IA acompanhem e avaliem periodicamente o quadro legislativo e de governação desses modelos e, em especial, dos sistemas de IA generativos baseados nesses modelos, que levantam questões significativas relacionadas com a geração de conteúdos em violação do direito da União ou das regras em matéria de direitos de autor e com potenciais utilizações abusivas. Importa esclarecer que o presente regulamento não prejudica a legislação da União em matéria de direitos de autor e direitos conexos, incluindo as Diretivas 2001/29/CE, 2004/48/ECR e (UE) 2019/790 do Parlamento Europeu e do Conselho. |
Alteração 103
Proposta de regulamento
Considerando 61
|
|
Texto da Comissão |
Alteração |
(61) A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho54, deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. Contudo, a Comissão pode adotar especificações técnicas comuns em domínios onde não existem normas harmonizadas ou onde estas são insuficientes. |
(61) A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho54, deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. A fim de assegurar a eficácia das normas como instrumento político da União, e tendo em conta a importância das normas para assegurar a conformidade com os requisitos do presente regulamento e para a competitividade das empresas, é necessário assegurar uma representação equilibrada dos interesses, incluindo todas as partes interessadas relevantes na elaboração das normas. O processo de normalização deve ser transparente no que diz respeito às pessoas singulares e coletivas que participam nas atividades de normalização. |
__________________ |
__________________ |
54 Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.º 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12). |
54 Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.º 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12). |
Alteração 104
Proposta de regulamento
Considerando 61-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(61-A) A fim de facilitar o cumprimento, os primeiros pedidos de normalização devem ser emitidos pela Comissão o mais tardar dois meses após a entrada em vigor do presente regulamento. Tal deve servir para melhorar a segurança jurídica, promovendo assim o investimento e a inovação em IA, bem como a competitividade e o crescimento do mercado da União, reforçando simultaneamente a governação multilateral, representativa de todas as partes interessadas europeias relevantes, como o Serviço IA, as organizações e organismos europeus de normalização e os grupos de peritos criados ao abrigo da legislação setorial aplicável da União, bem como o setor, as PME, as empresas em fase de arranque, a sociedade civil, os investigadores e os parceiros sociais, e deve, em última análise, facilitar a cooperação mundial em matéria de normalização no domínio da IA, de forma coerente com os valores da União. Quando preparar o pedido de normalização, a Comissão deve consultar o Serviço IA e o Fórum Consultivo para a IA, a fim de recolher conhecimentos especializados pertinentes. |
Alteração 105
Proposta de regulamento
Artigo 61-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(61-B) Caso os sistemas de IA se destinarem a serem utilizados no local de trabalho, as normas harmonizadas devem limitar-se às especificações técnicas e aos procedimentos. |
Alteração 106
Proposta de regulamento
Considerando 61-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(61-C) A Comissão deve poder adotar especificações comuns em determinadas condições, sempre que não exista uma norma harmonizada pertinente, ou dar resposta a preocupações específicas em matéria de direitos fundamentais. Ao longo de todo o processo de elaboração, a Comissão deve consultar regularmente o Serviço IA e o seu fórum consultivo, as organizações e organismos europeus de normalização ou os grupos de peritos criados ao abrigo do direito setorial pertinente da União, bem como as partes interessadas relevantes, como a indústria, as PME, as empresas em fase de arranque, a sociedade civil, os investigadores e os parceiros sociais. |
Alteração 107
Proposta de regulamento
Considerando 61-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(61-D) Ao adotar especificações comuns, a Comissão deve esforçar-se por alinhar a regulamentação relativa à IA com parceiros mundiais que partilham as mesmas ideias, o que é fundamental para promover a inovação e as parcerias transfronteiriças no domínio da IA, uma vez que a coordenação com parceiros que partilham as mesmas ideias nos organismos internacionais de normalização é extremamente importante. |
Alteração 108
Proposta de regulamento
Considerando 62
|
|
Texto da Comissão |
Alteração |
(62) A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes devem ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou em serviço. |
(62) A fim de assegurar um nível elevado de fiabilidade dos sistemas de IA de risco elevado, estes devem ser sujeitos a uma avaliação da conformidade antes de serem colocados no mercado ou em serviço. Para aumentar a confiança na cadeia de valor e proporcionar segurança às empresas quanto ao desempenho dos seus sistemas, os terceiros que fornecem componentes de IA podem solicitar voluntariamente uma avaliação da conformidade por terceiros. |
Alteração 109
Proposta de regulamento
Considerando 64
|
|
Texto da Comissão |
Alteração |
(64) Dada a experiência mais vasta dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Como tal, a avaliação da conformidade desses sistemas deve ser realizada, regra geral, pelo fornecedor sob a sua própria responsabilidade, com a exceção única dos sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas, cuja avaliação da conformidade, contanto que os sistemas em causa não sejam proibidos, deve contar com a participação de um organismo notificado. |
(64) Dada a complexidade dos sistemas de IA de risco elevado e os riscos que lhes estão associados, é essencial desenvolver uma capacidade mais adequada para a aplicação da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado. No entanto, dada a atual experiência dos certificadores de pré-comercialização profissionais no domínio da segurança dos produtos e a diferente natureza dos riscos inerentes, é apropriado limitar, pelo menos numa fase inicial da aplicação do presente regulamento, o âmbito da avaliação da conformidade por terceiros aos sistemas de IA de risco elevado que não estejam relacionados com produtos. Como tal, a avaliação da conformidade desses sistemas deve ser realizada, regra geral, pelo fornecedor sob a sua própria responsabilidade, com a exceção única dos sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas e dos sistemas de IA concebidos para serem utilizados para fazer inferências sobre as características pessoais de pessoas singulares a partir de dados biométricos ou dados baseados em biometria, incluindo os sistemas de reconhecimento de emoções, cuja avaliação da conformidade, contanto que os sistemas em causa não sejam proibidos, deve contar com a participação de um organismo notificado. |
Alteração 110
Proposta de regulamento
Considerando 65
|
|
Texto da Comissão |
Alteração |
(65) Para efeitos de avaliação da conformidade por terceiros de sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância de pessoas, o presente regulamento prevê que as autoridades nacionais competentes designem organismos notificados, os quais devem cumprir uma série de requisitos, nomeadamente em termos de independência, competência e ausência de conflitos de interesse. |
(65) Sempre que seja necessário realizar avaliações da conformidade por terceiros, o presente regulamento prevê que as autoridades nacionais competentes designem organismos notificados, os quais devem cumprir uma série de requisitos, nomeadamente em termos de independência, competência, ausência de conflitos de interesse e requisitos mínimos de cibersegurança. Os Estados-Membros devem promover a designação de um número suficiente de organismos de avaliação da conformidade para que a certificação seja viável de modo atempado. Os procedimentos de avaliação, designação, notificação e acompanhamento dos organismos de avaliação da conformidade devem ser implementados o mais uniformemente possível nos Estados-Membros, a fim de eliminar barreiras administrativas fronteiriças e garantir a realização do potencial do mercado interno. |
Alteração 111
Proposta de regulamento
Considerando 65-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(65-A) Em conformidade com os compromissos assumidos pela União no âmbito do Acordo sobre os Obstáculos Técnicos ao Comércio da Organização Mundial do Comércio, é adequado maximizar a aceitação dos resultados dos testes produzidos pelos organismos de avaliação da conformidade competentes, independentemente do território onde estejam estabelecidos, se tal for necessário para demonstrar a conformidade com os requisitos aplicáveis do regulamento. A Comissão deve procurar utilizar ativamente eventuais instrumentos internacionais para esse efeito e, em especial, tentar celebrar eventuais acordos de reconhecimento mútuo com países que se encontrem num nível comparável de desenvolvimento técnico e tenham uma abordagem compatível em matéria de IA e de avaliação da conformidade. |
Alteração 112
Proposta de regulamento
Considerando 66
|
|
Texto da Comissão |
Alteração |
(66) Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, é apropriado que um sistema de IA seja objeto de uma nova avaliação da conformidade sempre que seja alterado de maneira que possa afetar o cumprimento do presente regulamento ou que a finalidade prevista do sistema se altere. Além disso, no que respeita aos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço (ou seja, que adaptam automaticamente o modo de funcionamento), é necessário criar regras que determinem que as alterações do algoritmo e do desempenho predeterminados pelo fornecedor e examinados aquando da avaliação da conformidade não constituem uma modificação substancial. |
(66) Em consonância com a noção comummente estabelecida de modificação substancial de produtos regulamentados pela legislação de harmonização da União, é apropriado que um sistema de IA de risco elevado seja objeto de uma nova avaliação da conformidade sempre que seja alterado de maneira não planeada que vá além do controlo ou das alterações predeterminadas pelo prestador, incluindo a aprendizagem contínua, e que possa criar um novo risco inaceitável e afetar significativamente o cumprimento do presente regulamento ou que a finalidade prevista do sistema de IA de risco elevado se altere. Além disso, no que respeita aos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço (ou seja, que adaptam automaticamente o modo de funcionamento), é necessário criar regras que determinem que as alterações do algoritmo e do desempenho predeterminados pelo fornecedor e examinados aquando da avaliação da conformidade não constituem uma modificação substancial. O mesmo deve aplicar-se a atualizações do sistema de IA por motivos de segurança em geral e para proteger contra as ameaças em constante evolução de manipulação do sistema, desde que tal não implique uma modificação substancial. |
Alteração 113
Proposta de regulamento
Considerando 67
|
|
Texto da Comissão |
Alteração |
(67) Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. Os Estados-Membros não podem criar obstáculos injustificados à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE. |
(67) Para que possam circular livremente dentro do mercado interno, os sistemas de IA de risco elevado devem apresentar a marcação CE para indicar o cumprimento do presente regulamento. No caso dos sistemas físicos de IA de risco elevado, deve ser aposta uma marcação CE física, que pode ser complementada por uma marcação CE digital. No caso dos sistemas unicamente digitais de IA de risco elevado, deve ser utilizada uma marcação CE digital. Os Estados-Membros não podem criar obstáculos injustificados à colocação no mercado ou à colocação em serviço de sistemas de IA de risco elevado que cumpram os requisitos previstos no presente regulamento e apresentem a marcação CE. |
Alteração 114
Proposta de regulamento
Considerando 68
|
|
Texto da Comissão |
Alteração |
(68) Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas e da sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares e de proteção da propriedade industrial e comercial, os Estados-Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade. |
(68) Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas, para o ambiente e as alterações climáticas e para a sociedade em geral. Como tal, é apropriado que, por razões excecionais de proteção da vida e da saúde das pessoas singulares, de proteção do ambiente e de proteção infraestruturas críticas, os Estados-Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade. |
Alteração 115
Proposta de regulamento
Considerando 69
|
|
Texto da Comissão |
Alteração |
(69) Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da inteligência artificial, bem como aumentar a transparência para o público, os fornecedores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da atual legislação de harmonização da União devem ser obrigados a registar esses sistemas de IA de risco elevado numa base de dados da UE que será criada e gerida pela Comissão. A Comissão deve ser o responsável pelo tratamento dessa base de dados, nos termos do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho55. Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados deve incluir a elaboração de especificações funcionais pela Comissão e um relatório de auditoria independente. |
(69) Para facilitar o trabalho da Comissão e dos Estados-Membros no domínio da inteligência artificial, bem como aumentar a transparência para o público, os fornecedores de sistemas de IA de risco elevado que não os relacionados com produtos abrangidos pelo âmbito da atual legislação de harmonização da União devem ser obrigados a registar esses sistemas de IA de risco elevado e os modelos de base numa base de dados da UE que será criada e gerida pela Comissão. Essa base de dados deve ser de acesso livre e público, facilmente compreensível e legível por máquina. A base de dados também deve ser fácil de utilizar e de navegar, com funcionalidades de pesquisa, que permitam, no mínimo, ao público em geral pesquisar a base de dados por sistemas de alto risco específicos, localizações, categorias de risco nos termos do anexo IV e palavras-chave. Os responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos ou organismos da União ou que atuem em seu nome e os responsáveis pela implantação que sejam empresas designadas como controladores ao abrigo do Regulamento (UE) 2022/1925 também se devem registar na base de dados da UE antes da primeira colocação em serviço ou utilização de um sistema de IA de risco elevado e após cada modificação significativa. Os outros responsáveis pela implantação devem ter o direito de o fazer voluntariamente. Qualquer alteração substancial de um sistema de IA de risco elevado também deve ser registada na base de dados da UE. A Comissão deve ser o responsável pelo tratamento dessa base de dados, nos termos do Regulamento (UE) 2018/1725 do Parlamento Europeu e do Conselho55. Para assegurar que a base de dados esteja plenamente operacional à data de implantação, o procedimento para a criação da base de dados deve incluir a elaboração de especificações funcionais pela Comissão e um relatório de auditoria independente. A Comissão deve ter em conta os riscos de cibersegurança e os relacionados com os perigos no exercício das suas funções de responsável pelo tratamento de dados na base de dados da UE. A fim de maximizar a disponibilidade e a utilização da base de dados pelo público, a base de dados, incluindo as informações disponibilizadas através da mesma, deve cumprir os requisitos estabelecidos na Diretiva 2019/882. |
__________________ |
__________________ |
55 Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1). |
55 Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016, relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados) (JO L 119 de 4.5.2016, p. 1). |
Alteração 116
Proposta de regulamento
Considerando 71
|
|
Texto da Comissão |
Alteração |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados-Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige supervisão regulamentar e um espaço seguro e controlado para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico que promova a inovação, preparado para o futuro e resistente a perturbações, os Estados-Membros devem criar pelo menos um ambiente de testagem da regulamentação da inteligência artificial que facilite o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. Com efeito, é desejável que a criação de ambientes de testagem da regulamentação, cuja criação está atualmente à discrição dos Estados-Membros, seja tornada, como um próximo passo, obrigatória com critérios estabelecidos. Esse ambiente de testagem obrigatório também pode ser criado em conjunto com um ou mais Estados-Membros, desde que esse ambiente de testagem abranja o respetivo nível nacional dos Estados-Membros envolvidos. Podem igualmente ser criados outros ambientes de testagem a diferentes níveis, incluindo entre Estados-Membros, a fim de facilitar a cooperação transfronteiriça e as sinergias. Com exceção do ambiente de testagem obrigatório a nível nacional, os Estados-Membros também devem poder criar ambientes de testagem virtuais ou híbridos. Todos os ambientes de testagem da regulamentação devem poder acolher produtos físicos e virtuais. As autoridades responsáveis pela criação devem assegurar igualmente que os ambientes de testagem da regulamentação disponham de recursos financeiros e humanos adequados para o seu funcionamento. |
Alteração 117
Proposta de regulamento
Considerando 72
|
|
Texto da Comissão |
Alteração |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré-comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados-Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa-fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar-se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: as autoridades responsáveis pela criação aumentarem a sua compreensão das evoluções técnicas, melhorarem os métodos de supervisão e prestarem orientações aos criadores e fornecedores de sistemas de IA, a fim de cumprirem o presente regulamento ou, se for caso disso, outra legislação aplicável da União ou dos Estados-Membros, bem como com a Carta dos Direitos Fundamentais; os potenciais fornecedores permitirem e facilitarem o ensaio e o desenvolvimento de soluções inovadoras relacionadas com os sistemas de IA na fase de pré-comercialização, a fim de reforçar a segurança jurídica, permitir uma maior aprendizagem regulamentar através da criação de autoridades num ambiente controlado para desenvolver orientações melhores e identificar possíveis melhorias futuras do quadro jurídico através do processo legislativo ordinário. A identificação de quaisquer riscos significativos durante o desenvolvimento e a testagem desses sistemas deve resultar na adoção imediata de medidas de atenuação e, na sua falta, na suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. Os Estados-Membros devem assegurar que os ambientes de testagem da regulamentação estão amplamente disponíveis em toda a União, devendo a participação continuar a ser voluntária. É particularmente importante garantir que as PME e as empresas em fase de arranque possam aceder facilmente a esses ambientes de testagem, estejam ativamente envolvidas e participem no desenvolvimento e no teste de sistemas de IA inovadores, de modo a poderem contribuir com os seus conhecimentos especializados e experiência. |
Alteração 118
Proposta de regulamento
Considerando 72-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(72-A) O presente regulamento deve estabelecer a base jurídica para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de alguns sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA apenas em condições específicas, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os potenciais fornecedores no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa-fé para atenuar eventuais riscos elevados para a segurança, a saúde, o ambiente e os direitos fundamentais que possam surgir durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos potenciais fornecedores no ambiente de testagem deve ser tida em conta quando as autoridades competentes tomarem uma decisão sobre a suspensão temporária ou permanente da sua participação no ambiente de testagem, ou decidirem aplicar uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
Alteração 119
Proposta de regulamento
Considerando 72-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(72-B) A fim de garantir que a Inteligência Artificial produza resultados sociais e ambientais benéficos, os Estados-Membros devem apoiar e promover a investigação e o desenvolvimento da IA nesse sentido, atribuindo recursos suficientes, incluindo financiamento público e da União, e concedendo acesso prioritário a ambientes de testagem da regulamentação a projetos liderados pela sociedade civil. Esses projetos devem ser baseados no princípio da cooperação interdisciplinar entre criadores de IA e especialistas em matéria de desigualdade, não discriminação, acessibilidade e direitos do consumidor, ambientais e digitais, bem como académicos. |
Alteração 120
Proposta de regulamento
Considerando 73
|
|
Texto da Comissão |
Alteração |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de literacia em IA e de sensibilização e comunicação de informações. Os Estados-Membros devem utilizar os canais existentes e, se for caso disso, criar novos canais específicos para comunicar com PME, empresas em fase de arranque, utilizadores e outros inovadores, a fim de fornecer orientações e responder a perguntas sobre a aplicação do presente regulamento. Esses canais existentes podem incluir, entre outros, as Equipas de Resposta a Incidentes de Segurança Informática da ENISA, as autoridades nacionais de proteção de dados, a plataforma de IA a pedido, os Polos Europeus de Inovação Digital e outros instrumentos relevantes financiados por programas da UE, bem como as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou da União. Sempre que adequado, esses canais devem trabalhar em conjunto para criar sinergias e assegurar a homogeneidade da sua orientação às empresas em fase de arranque, às PME e aos utilizadores. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores, e trabalhar com os Estados-Membros para reduzir esses custos. Por exemplo, os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. As empresas de média dimensão que passaram recentemente da categoria de pequena para média, na aceção do anexo da Recomendação 2003/361/CE (artigo 16.º), devem ter acesso a essas iniciativas e orientações durante um período de tempo considerado adequado pelos Estados-Membros, uma vez que essas novas empresas de média dimensão podem, por vezes, não dispor dos recursos jurídicos e da formação necessários para assegurar a compreensão e o cumprimento adequados das disposições. |
Alteração 121
Proposta de regulamento
Considerando 74
|
|
Texto da Comissão |
Alteração |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. |
Alteração 122
Proposta de regulamento
Considerando 76
|
|
Texto da Comissão |
Alteração |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
(76) A fim de evitar a fragmentação, de assegurar o funcionamento ideal do mercado único, de assegurar uma aplicação eficaz e harmoniosa do presente regulamento, de alcançar um nível elevado de fiabilidade e de proteção da saúde, da segurança, dos direitos fundamentais, do ambiente, da democracia e do Estado de direito em toda a União, no que diz respeito aos sistemas de IA, de apoiar ativamente as autoridades nacionais de controlo, as instituições, órgãos e organismos da União em questões relacionadas com o presente regulamento, de aumentar a utilização da inteligência artificial em toda a União, deve ser criado um Serviço da União Europeia para a Inteligência Artificial. O Serviço IA deve ter personalidade jurídica, agir com total independência, ser responsável por uma série de funções consultivas e de coordenação, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, e ser adequadamente financiado e dotado de pessoal. Os Estados-Membros devem providenciar direção estratégica e o controlo do Serviço IA através do conselho de administração do Serviço IA, juntamente com a Comissão, a AEPD, a FRA e a ENISA. Um diretor executivo deve ser responsável pela gestão das atividades do secretariado e pela representação do Serviço IA. As partes interessadas devem participar formalmente nos trabalhos do Serviço IA através de um fórum consultivo que deve assegurar uma representação variada e equilibrada das partes interessadas e aconselhar o Serviço IA em questões relacionadas com o presente regulamento. Caso a criação do Serviço IA se revele insuficiente para assegurar uma aplicação plenamente coerente do presente regulamento a nível da União, bem como de medidas transfronteiriças eficientes de execução, deve ser ponderada a criação de uma agência para a IA. |
Alteração 123
Proposta de regulamento
Considerando 77
|
|
Texto da Comissão |
Alteração |
(77) Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado-Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo. |
(77) Cada Estado-Membro deve designar uma autoridade nacional de controlo para efeitos de supervisão da aplicação e execução do presente regulamento. Deve igualmente representar o seu Estado-Membro no conselho de administração do Serviço IA. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União. Cada autoridade nacional de controlo deve atuar com total independência no desempenho das suas funções e no exercício dos poderes que lhe são atribuídos nos termos do presente regulamento. |
Alteração 124
Proposta de regulamento
Considerando 77-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(77-A) As autoridades nacionais de controlo devem acompanhar a aplicação das disposições do presente regulamento e contribuir para a sua aplicação coerente em toda a União. Para tal, as autoridades nacionais de controlo devem cooperar entre si, com as autoridades nacionais competentes relevantes, com a Comissão e com o Serviço IA. |
Alteração 125
Proposta de regulamento
Considerando 77-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(77-B) Os membros e o pessoal de cada autoridade nacional de controlo devem, nos termos do direito da União ou do direito nacional, ficar sujeitos à obrigação de sigilo profissional, tanto durante o mandato como após o seu termo, no que diz respeito às informações confidenciais a que tenham tido acesso no desempenho das suas funções ou exercício dos seus poderes. Durante o seu mandato, essa obrigação de sigilo profissional aplica-se, em especial, a segredos comerciais e à prestação de informações por pessoas singulares de violações do presente regulamento. |
Alteração 126
Proposta de regulamento
Considerando 78
|
|
Texto da Comissão |
Alteração |
(78) Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós-comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União que protege os direitos fundamentais resultantes da utilização dos sistemas de IA que fornecem. |
(78) Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós-comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» ou a evoluir depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União, nomeadamente às que protegem os direitos fundamentais e os direitos dos consumidores, resultantes da utilização dos sistemas de IA que fornecem e adotar as medidas corretivas adequadas. Os responsáveis pela implantação também devem comunicar às autoridades competentes todos os incidentes graves ou violações do direito nacional ou da União resultantes da utilização dos seus sistemas de IA, assim que passem a ter conhecimento desses incidentes graves ou violações. |
Alteração 127
Proposta de regulamento
Considerando 79
|
|
Texto da Comissão |
Alteração |
(79) Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento. |
(79) Para assegurar uma execução adequada e eficaz dos requisitos e das obrigações estabelecidas no presente regulamento, que faz parte da legislação de harmonização da União, o sistema de fiscalização do mercado e de conformidade dos produtos estabelecido no Regulamento (UE) 2019/1020 deve ser aplicado na íntegra. Para efeitos do presente regulamento, as autoridades nacionais de controlo devem atuar como autoridades de fiscalização do mercado para os sistemas de IA abrangidos pelo presente regulamento, com exceção dos sistemas de IA abrangidos pelo anexo II do presente regulamento. Para os sistemas de IA abrangidos pelos atos jurídicos enumerados no anexo II, as autoridades competentes ao abrigo desses atos jurídicos devem continuar a ser a autoridade principal. As autoridades nacionais de controlo e as autoridades nacionais competentes dos atos jurídicos enumerados no anexo II devem trabalhar em conjunto sempre que necessário. Se for caso disso, as autoridades competentes constantes dos atos jurídicos enumerados no anexo II devem enviar pessoal competente à autoridade nacional de controlo para a ajudar a desempenhar as suas funções. Para efeitos do presente regulamento, as autoridades nacionais de controlo devem ter os mesmos poderes e obrigações que as autoridades de fiscalização do mercado ao abrigo do Regulamento (UE) 2019/1020. Quando tal for necessário ao cumprimento do seu mandato, as autoridades públicas ou os organismos nacionais que supervisionam a aplicação do direito da União que protege direitos fundamentais, incluindo os organismos de promoção da igualdade, também devem ter acesso à documentação elaborada por força do presente regulamento. Depois de esgotadas todas as outras formas razoáveis de avaliar/verificar a conformidade e mediante pedido fundamentado, a autoridade nacional de controlo deve ter acesso aos conjuntos de dados de treino, validação e teste, ao modelo treinado e de aprendizagem do sistema de IA de risco elevado, incluindo os seus parâmetros pertinentes, e ao seu ambiente de execução/funcionamento. No caso de sistemas de software mais simples abrangidos pelo presente regulamento que não se baseiem em modelos treinados e em que tenham sido esgotadas todas as outras formas de verificar a conformidade, a autoridade nacional de controlo pode, a título excecional, ter acesso ao código-fonte, mediante pedido fundamentado. Caso a autoridade nacional de controlo tenha obtido acesso aos conjuntos de dados de treino, validação e teste em conformidade com o presente regulamento, esse acesso deve ser efetuado através de ferramentas e meios técnicos adequados, incluindo o acesso no local e, em circunstâncias excecionais, o acesso remoto. A autoridade nacional de controlo deve tratar todas as informações obtidas, incluindo o código-fonte, o software e os dados, conforme aplicável, como informações confidenciais e respeitar a legislação da União aplicável em matéria de proteção da propriedade intelectual e de segredos comerciais. A autoridade nacional de controlo deve eliminar todas as informações obtidas após a conclusão da investigação. |
Alteração 128
Proposta de regulamento
Considerando 80
|
|
Texto da Comissão |
Alteração |
(80) A legislação da União em matéria de serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, incluindo quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos da legislação da União aplicáveis aos serviços financeiros, as autoridades responsáveis pela supervisão e execução da legislação no domínio dos serviços financeiros, incluindo, se for caso disso, o Banco Central Europeu, devem ser designadas autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA fornecidos ou utilizados por instituições financeiras regulamentadas e supervisionadas. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE do Parlamento Europeu e do Conselho56, também é apropriado integrar o procedimento de avaliação da conformidade e algumas das obrigações processuais dos fornecedores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da mesma diretiva. No intuito de evitar sobreposições, também devem ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos fornecedores e à obrigação de controlo imposta aos utilizadores de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE. |
(80) O direito da União em matéria de serviços financeiros inclui regras e requisitos relativos à governação interna e à gestão dos riscos aplicáveis às instituições financeiras regulamentadas durante a prestação desses serviços, incluindo quando estas utilizam sistemas de IA. Para assegurar a coerência na aplicação e na execução das obrigações previstas no presente regulamento e das regras e requisitos do direito da União aplicável aos serviços financeiros, as autoridades responsáveis pela supervisão e execução da legislação no domínio dos serviços financeiros, incluindo, se for caso disso, o Banco Central Europeu, devem ser designadas autoridades competentes para efeitos de supervisão da aplicação do presente regulamento, incluindo o exercício de funções de fiscalização do mercado, no que diz respeito aos sistemas de IA fornecidos ou utilizados por instituições financeiras regulamentadas e supervisionadas. A fim de reforçar a coerência entre o presente regulamento e as regras aplicáveis às instituições de crédito regulamentadas pela Diretiva 2013/36/UE do Parlamento Europeu e do Conselho56, também é apropriado integrar o procedimento de avaliação da conformidade e algumas das obrigações processuais dos fornecedores relativas à gestão de riscos, ao acompanhamento pós-comercialização e à documentação nas obrigações e procedimentos em vigor por força da mesma diretiva. No intuito de evitar sobreposições, também devem ser previstas derrogações limitadas no respeitante ao sistema de gestão da qualidade dos fornecedores e à obrigação de controlo imposta aos responsáveis pela implantação de sistemas de IA de risco elevado, contanto que tal se aplique a instituições de crédito regulamentadas pela Diretiva 2013/36/UE. |
__________________ |
__________________ |
56 Diretiva 2013/36/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa ao acesso à atividade das instituições de crédito e à supervisão prudencial das instituições de crédito e empresas de investimento, que altera a Diretiva 2002/87/CE e revoga as Diretivas 2006/48/CE e 2006/49/CE (JO L 176 de 27.6.2013, p. 338). |
56 Diretiva 2013/36/UE do Parlamento Europeu e do Conselho, de 26 de junho de 2013, relativa ao acesso à atividade das instituições de crédito e à supervisão prudencial das instituições de crédito e empresas de investimento, que altera a Diretiva 2002/87/CE e revoga as Diretivas 2006/48/CE e 2006/49/CE (JO L 176 de 27.6.2013, p. 338). |
Alteração 129
Proposta de regulamento
Considerando 80-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(80-A) Atendendo aos objetivos do presente regulamento, nomeadamente de assegurar um nível equivalente de proteção da saúde, da segurança e dos direitos fundamentais das pessoas singulares, a proteção do Estado de direito e da democracia, e tendo em conta que a atenuação dos riscos que os sistemas de IA representam para esses direitos pode não ser suficientemente alcançada a nível nacional ou estar sujeita a interpretações divergentes, que, em última análise, podem conduzir a um nível desigual de proteção das pessoas singulares e provocar a fragmentação do mercado, as autoridades nacionais de controlo devem estar habilitadas a realizar investigações conjuntas ou a recorrer aos processo de salvaguarda da União previsto no presente regulamento para a execução efetiva. As investigações conjuntas devem ser iniciadas quando uma autoridades nacional de controlo tiver motivos suficientes para crer que uma violação ao presente regulamento constitui uma violação generalizada ou uma violação generalizada ao nível da União, ou se o sistema de IA ou o modelo de base representar um risco que afete ou seja suscetível de afetar, pelo menos, 45 milhões de pessoas em mais do que um Estado-Membro. |
Alteração 130
Proposta de regulamento
Considerando 82
|
|
Texto da Comissão |
Alteração |
(82) Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento, e que, como tal, não são obrigados a cumprir os requisitos do mesmo, sejam seguros quando são colocados no mercado ou em serviço. A fim de contribuir para alcançar esse objetivo, a Diretiva 2001/95/CE do Parlamento Europeu e do Conselho57 será aplicada como uma rede de segurança. |
(82) Não obstante, é importante que os sistemas de IA relacionados com produtos que não são de risco elevado, nos termos do presente regulamento, e que, como tal, não são obrigados a cumprir os requisitos aplicáveis a sistemas de IA de risco elevado, sejam seguros quando são colocados no mercado ou em serviço. A fim de contribuir para alcançar esse objetivo, a Diretiva 2001/95/CE do Parlamento Europeu e do Conselho57 será aplicada como uma rede de segurança. |
__________________ |
__________________ |
57 Diretiva 2001/95/CE do Parlamento Europeu e do Conselho, de 3 de dezembro de 2001, relativa à segurança geral dos produtos (JO L 11 de 15.1.2002, p. 4). |
57 Diretiva 2001/95/CE do Parlamento Europeu e do Conselho, de 3 de dezembro de 2001, relativa à segurança geral dos produtos (JO L 11 de 15.1.2002, p. 4). |
Alteração 131
Proposta de regulamento
Considerando 83
|
|
Texto da Comissão |
Alteração |
(83) Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções. |
(83) Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem visar a transparência e a abertura, respeitando simultaneamente a confidencialidade das informações e dos dados obtidos no exercício das suas funções, adotando medidas técnicas e organizativas para proteger a segurança e a confidencialidade das informações obtidas no exercício das suas atividades, nomeadamente em matéria de direitos de propriedade intelectual e de interesses de segurança pública e nacional. Nos casos em que as atividades da Comissão, das autoridades nacionais competentes e dos organismos notificados nos termos do presente regulamento resultem numa violação de direitos de propriedade intelectual, os Estados-Membros devem prever medidas e vias de recurso adequadas para garantir o respeito dos direitos de propriedade intelectual em aplicação da Diretiva 2004/48/CE. |
Alteração 132
Proposta de regulamento
Considerando 84
|
|
Texto da Comissão |
Alteração |
(84) Os Estados-Membros devem tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis à sua violação. No caso de determinadas violações específicas, os Estados-Membros devem ter em conta as margens e os critérios estabelecidos no presente regulamento. A Autoridade Europeia para a Proteção de Dados deve ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento. |
(84) O cumprimento do presente regulamento deve poder ser assegurado mediante a aplicação de coimas pela autoridades nacional de controlo no âmbito dos processos iniciados em conformidade com o procedimento previsto no presente regulamento. Os Estados-Membros devem tomar todas as medidas necessárias para assegurar a aplicação das disposições do presente regulamento, inclusive estabelecendo sanções efetivas, proporcionadas e dissuasivas aplicáveis à sua violação. A fim de reforçar e harmonizar as sanções administrativas em caso de violação do presente regulamento, devem ser estabelecidos os limites máximos para a fixação de coimas para determinadas violações específicas. Ao avaliar o montante das coimas, as autoridades nacionais competentes devem, em cada caso individual, ter em conta todas as circunstâncias relevantes da situação específica, prestando especial atenção à natureza, à gravidade e à duração da violação e às suas consequências, bem como à dimensão do prestador, em particular se o prestador for uma PME ou uma empresa em fase de arranque. A Autoridade Europeia para a Proteção de Dados deve ter competências para impor coimas às instituições, órgãos e organismos da União que se enquadram no âmbito do presente regulamento. As sanções e os custos de contencioso ao abrigo do presente regulamento não devem estar sujeitos a cláusulas contratuais ou quaisquer outras disposições. |
Alteração 133
Proposta de regulamento
Considerando 84-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(84-A) Uma vez que os direitos e liberdades das pessoas singulares e coletivas e dos grupos de pessoas singulares podem ser gravemente prejudicados pelos sistemas de IA, é essencial que as pessoas singulares e coletivas e os grupos de pessoas singulares tenham um acesso significativo aos mecanismos de prestação de informações e de recurso e tenham direito a vias de recurso proporcionadas e eficazes. Devem poder comunicar violações ao presente regulamento à sua autoridade nacional de controlo, bem como ter o direito de apresentar uma queixa contra os prestadores ou responsáveis pela implantação dos sistemas de IA. Se aplicável, os responsáveis pela implantação devem prever mecanismos internos de apresentação de queixas a utilizar por pessoas singulares e coletivas e grupos de pessoas singulares. Sem prejuízo de qualquer outra via de recurso administrativa ou extrajudicial, as pessoas singulares e coletivas e os grupos de pessoas singulares devem igualmente ter direito a um recurso judicial efetivo relativamente a uma decisão juridicamente vinculativa de uma autoridade nacional de controlo que lhes diga respeito ou, caso a autoridade nacional de controlo não trate uma queixa, não informe o reclamante do andamento ou do resultado preliminar da queixa apresentada ou não cumpra a sua obrigação de tomar uma decisão final, à queixa. |
Alteração 134
Proposta de regulamento
Considerando 84-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(84-B) As pessoas afetadas devem ser sempre informadas de que estão a ser alvo da utilização de um sistema de IA de risco elevado, quando os responsáveis pela implantação utilizam um sistema de IA de risco elevado para ajudar na tomada de decisões ou tomar decisões relacionadas com pessoas singulares. Essa informação pode constituir uma base para as pessoas afetadas exercerem o seu direito a uma explicação ao abrigo do presente regulamento. Quando os responsáveis pela implantação fornecem uma explicação às pessoas afetadas ao abrigo do presente regulamento, devem ter em conta o nível de conhecimentos especializados e genéricos de uma pessoa ou consumidor médios. |
Alteração 135
Proposta de regulamento
Considerando 84-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(84-C) A legislação da União relativa à proteção dos denunciantes (Diretiva (UE) 2019/1937) aplica-se inteiramente a académicos, técnicos de conceção, criadores, colaboradores de projetos, auditores, gestores de produtos, engenheiros e operadores económicos que obtenham informações sobre violações do direito da União por parte de um fornecedor de sistema de IA ou do seu sistema de IA. |
Alteração 136
Proposta de regulamento
Considerando 85
|
|
Texto da Comissão |
Alteração |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deverá ser delegado na Comissão no que diz respeito à alteração da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58. Essas consultas devem incluir a participação de uma seleção equilibrada de partes interessadas, incluindo organizações de consumidores, a sociedade civil, associações que representem pessoas afetadas, representantes de empresas de diferentes setores e dimensões, investigadores e cientistas. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
__________________ |
__________________ |
58 JO L 123 de 12.5.2016, p. 1. |
58 JO L 123 de 12.5.2016, p. 1. |
Alteração 137
Proposta de regulamento
Considerando 85-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(85-A) Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos especializados necessários para realizar a avaliação de sistemas de IA de risco elevado, a Comissão deve rever regularmente a aplicação do presente regulamento, em especial no que diz respeito aos sistemas de IA proibidos, às obrigações de transparência e à lista de domínios de risco elevado e de casos de utilização, pelo menos anualmente, consultando o Serviço IA e as partes interessadas relevantes. |
Alteração 138
Proposta de regulamento
Considerando 87-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(87-A) Uma vez que as informações fiáveis sobre a utilização de recursos e de energia, a produção de resíduos e outros impactos ambientais dos sistemas de IA e das respetivas TIC, incluindo software, hardware e, em particular, centros de dados, são limitadas, a Comissão deve introduzir uma metodologia adequada para medir o impacto ambiental e a eficácia do presente regulamento face aos objetivos ambientais e climáticos da União. |
Alteração 139
Proposta de regulamento
Considerando 89
|
|
Texto da Comissão |
Alteração |
(89) A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.º, n.º 2, do Regulamento (UE) 2018/1725, e emitiram parecer em […], |
(89) A Autoridade Europeia para a Proteção de Dados e o Comité Europeu para a Proteção de Dados foram consultados nos termos do artigo 42.º, n.º 2, do Regulamento (UE) 2018/1725, e emitiram parecer em 18 de junho de 2021. |
Alteração 140
Proposta de regulamento
Artigo 1 – parágrafo 1 (novo)
|
|
Texto da Comissão |
Alteração |
|
1. A finalidade do presente regulamento é promover a adoção de inteligência artificial centrada no ser humano e de confiança e assegurar um nível elevado de proteção da saúde, da segurança, dos direitos fundamentais, da democracia, do Estado de direito e do ambiente contra os efeitos nocivos dos sistemas de inteligência artificial na União, apoiando simultaneamente a inovação; |
Alteração 141
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Regras de transparência harmonizadas para sistemas de IA concebidos para interagir com pessoas singulares, sistemas de reconhecimento de emoções e sistemas de categorização biométrica, bem como para sistemas de IA usados para gerar ou manipular conteúdos de imagem, áudio ou vídeo; |
d) Regras de transparência harmonizadas para determinados sistemas de IA; |
Alteração 142
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Regras relativas à fiscalização e vigilância do mercado. |
e) Regras relativas à fiscalização do mercado, à vigilância do mercado, à governação e à execução; |
Alteração 143
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) Medidas de apoio à inovação, com destaque especial para as PME e as empresas em fase de arranque, incluindo a criação de ambientes de testagem da regulamentação e de medidas específicas destinadas a reduzir a carga regulamentar para as PME e as empresas em fase de arranque; |
Alteração 144
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) Regras para a criação e funcionamento do Serviço da União para a Inteligência Artificial (Serviço IA). |
Alteração 145
Proposta de regulamento
Artigo 2 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Utilizadores de sistemas de IA localizados na União; |
b) Responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou que estejam localizados na União; |
Alteração 146
Proposta de regulamento
Artigo 2 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Fornecedores e utilizadores de sistemas de IA localizados num país terceiro, se o resultado produzido pelo sistema for utilizado na União. |
c) Fornecedores e responsáveis pela implantação de sistemas de IA que tenham o seu local de estabelecimento ou estejam localizados num país terceiro, caso a legislação dos Estados-Membros seja aplicável por força de direito internacional público ou se o resultado produzido pelo sistema se destine a ser utilizado na União; |
Alteração 147
Proposta de regulamento
Artigo 2 – n.º 1 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Fornecedores que coloquem no mercado ou coloquem em serviço os sistemas de IA, a que se refere o artigo 5.º, fora do território da União, se o fornecedor ou distribuidor desses sistemas estiver localizado na União; |
Alteração 148
Proposta de regulamento
Artigo 2 – n.º 1 – alínea c-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-B) Importadores e distribuidores de sistemas de IA, bem como representantes autorizados de fornecedores de sistemas de IA, caso esses importadores, distribuidores ou representantes autorizados tenham o seu estabelecimento ou estejam localizados na União; |
Alteração 149
Proposta de regulamento
Artigo 2.º – n.º 1 – alínea c-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-C) Pessoas afetadas, na aceção do artigo 3.º, n.º 8-A, que estejam localizadas na União e cuja saúde, segurança ou direitos fundamentais sejam afetados negativamente pela utilização de um sistema de IA colocado no mercado ou colocado em serviço na União. |
Alteração 150
Proposta de regulamento
Artigo 2.º – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito dos atos a seguir enumerados, apenas é aplicável o artigo 84.º do presente regulamento: |
2. Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito da legislação de harmonização enumerada no anexo II, secção B, apenas é aplicável o artigo 84.º do presente regulamento; |
Alteração 151
Proposta de regulamento
Artigo 2 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Regulamento (CE) n.º 300/2008; |
Suprimido |
Alteração 152
Proposta de regulamento
Artigo 2 – n.º 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Regulamento (UE) n.º 167/2013; |
Suprimido |
Alteração 153
Proposta de regulamento
Artigo 2 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Regulamento (UE) n.º 168/2013; |
Suprimido |
Alteração 154
Proposta de regulamento
Artigo 2 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Diretiva 2014/90/UE; |
Suprimido |
Alteração 155
Proposta de regulamento
Artigo 2 – n.º 2 - alínea e)
|
|
Texto da Comissão |
Alteração |
e) Diretiva (UE) 2016/797; |
Suprimido |
Alteração 156
Proposta de regulamento
Artigo 2 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Regulamento (UE) 2018/858; |
Suprimido |
Alteração 157
Proposta de regulamento
Artigo 2 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Regulamento (UE) 2018/1139; |
Suprimido |
Alteração 158
Proposta de regulamento
Artigo 2 – n.º 2 – alínea h)
|
|
Texto da Comissão |
Alteração |
h) Regulamento (UE) 2019/2144. |
Suprimido |
Alteração 159
Proposta de regulamento
Artigo 2 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.º 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito de acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros. |
4. O presente regulamento não se aplica a autoridades públicas de países terceiros, nem a organizações internacionais abrangidas pelo âmbito do presente regulamento nos termos do n.º 1, quando essas autoridades ou organizações usem sistemas de IA no âmbito de cooperação ou acordos internacionais para efeitos de cooperação policial e judiciária com a União ou com um ou vários Estados-Membros e são objeto de uma decisão da Comissão adotada nos termos do artigo 36.º da Diretiva (UE) 2016/680 ou do artigo 45.º do Regulamento 2016/679 («decisão de adequação») ou fazem parte de um acordo internacional celebrado entre a União e esse país terceiro ou organização internacional, nos termos do artigo 218.º do TFUE, que apresente salvaguardas adequadas em matéria de proteção da privacidade e dos direitos e liberdades fundamentais das pessoas; |
Alteração 160
Proposta de regulamento
Artigo 2 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. A legislação da União em matéria de proteção de dados pessoais, de privacidade e de confidencialidade das comunicações aplica-se aos dados pessoais tratados em relação aos direitos e obrigações estabelecidos no presente regulamento. O presente regulamento não afeta os Regulamentos (UE) 2016/679 e (UE) 2018/1725 nem as Diretivas 2002/58/CE e (UE) 2016/680, sem prejuízo do disposto no artigo 10.º, n.º 5, e no artigo 54.º do presente regulamento; |
Alteração 161
Proposta de regulamento
Artigo 2 – n.º 5-B (novo)
|
|
Texto da Comissão |
Alteração |
|
5-B. O presente regulamento não prejudica as regras estabelecidas por outros atos legislativos da União relacionados com a proteção dos consumidores e a segurança dos produtos; |
Alteração 162
Proposta de regulamento
Artigo 2 – n.º 5-C (novo)
|
|
Texto da Comissão |
Alteração |
|
5-C. O presente regulamento não impede que os Estados-Membros ou a União mantenham ou introduzam disposições legislativas, regulamentares ou administrativas mais favoráveis para os trabalhadores em termos de proteção dos seus direitos no que diz respeito à utilização de sistemas de IA por empregadores, ou que incentivem ou permitam a aplicação de convenções coletivas mais favoráveis para os trabalhadores. |
Alteração 163
Proposta de regulamento
Artigo 2 – n.º 5-D (novo)
|
|
Texto da Comissão |
Alteração |
|
5-D. O presente regulamento não se aplica às atividades de investigação, teste e desenvolvimento de um sistema de IA antes de esse sistema ser colocado no mercado ou colocado em serviço, desde que essas atividades sejam realizadas no respeito dos direitos fundamentais e da legislação aplicável da União. A presente isenção não abrange os testes em condições reais. A Comissão fica habilitada a adotar atos delegados, em conformidade com o artigo 73.º, que clarifiquem a aplicação do presente número, a fim de especificar esta isenção, para evitar abusos existentes e potenciais. O Serviço IA deve fornecer orientações sobre a governação da investigação e do desenvolvimento nos termos do artigo 56.º, visando igualmente coordenar a sua aplicação pelas autoridades nacionais de controlo; |
Alteração 164
Proposta de regulamento
Artigo 2 – n.º 5-E (novo)
|
|
Texto da Comissão |
Alteração |
|
5-E. O presente regulamento não é aplicável aos componentes de IA prestados ao abrigo de licenças livres e de fonte aberta, exceto na medida em que sejam colocados no mercado ou colocados em serviço por um fornecedor como parte de um sistema de IA de risco elevado ou de um sistema de IA abrangido pelos títulos II ou IV. Esta isenção não se aplica aos modelos de base definidos no artigo 3.º. |
Alteração 165
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1
|
|
Texto da Comissão |
Alteração |
(1) «Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas no anexo I, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
(1) «Sistema de inteligência artificial» (sistema de IA), um sistema baseado em máquinas concebido para operar com vários níveis de autonomia e que pode, em relação a objetivos explícitos ou implícitos, criar resultados, como previsões, recomendações ou decisões, que influenciam ambientes físicos ou virtuais; |
Alteração 166
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-A) «Risco», a combinação da probabilidade de ocorrência de um dano com a gravidade desse dano; |
Alteração 167
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-B) «Risco significativo», um risco significativo resultante da combinação da sua gravidade, intensidade, probabilidade de ocorrência e duração dos seus efeitos com a sua capacidade para afetar uma pessoa, várias pessoas ou um grupo específico de pessoas; |
Alteração 168
Proposta de regulamento
Artigo 3.º – n.º 1 – ponto 1-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-C) «Modelo de base», um modelo de sistema de IA que é treinado num vasto conjunto de dados em grande escala, concebido para a generalidade dos resultados e pode ser adaptado a uma grande gama de tarefas distintas; |
Alteração 169
Proposta de regulamento
Artigo 3.º – n.º 1 – ponto 1-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-D) «Sistema de IA de uso geral», um sistema de IA que pode ser utilizado e adaptado a uma vasta gama de aplicações para as quais não foi intencionalmente nem especificamente concebido; |
Alteração 170
Proposta de regulamento
Artigo 3.º – n.º 1 – ponto 1-E (novo)
|
|
Texto da Comissão |
Alteração |
|
(1-E) «Grandes sessões de treino», o processo de produção de um modelo de IA poderoso que exige recursos informáticos acima de um limiar muito elevado; |
Alteração 171
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 3
|
|
Texto da Comissão |
Alteração |
(3) «Fornecedor de pequena dimensão», um fornecedor que seja uma micro ou pequena empresa na aceção da Recomendação 2003/361/CE da Comissão61; |
Suprimido |
__________________ |
|
61 Recomendação da Comissão, de 6 de maio de 2003, relativa à definição de micro, pequenas e médias empresas (JO L 124 de 20.5.2003, p. 36). |
|
Alteração 172
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 4
|
|
Texto da Comissão |
Alteração |
(4) «Utilizador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional; |
(4) «Responsável pela implantação», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional;
|
Alteração 173
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 8
|
|
Texto da Comissão |
Alteração |
(8) «Operador», um fornecedor, utilizador, mandatário, importador ou distribuidor; |
(8) «Operador», um fornecedor, responsável pela implantação, mandatário, importador ou distribuidor; |
Alteração 174
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 8-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(8-A) «Pessoa afetada», qualquer pessoa singular ou grupo de pessoas sujeitas ou afetadas por um sistema de IA;
|
Alteração 175
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 11
|
|
Texto da Comissão |
Alteração |
(11) «Colocação em serviço», o fornecimento de um sistema de IA para a primeira utilização no mercado da União, diretamente ao utilizador ou para utilização própria, para a finalidade prevista; |
(11) «Colocação em serviço», o fornecimento de um sistema de IA para a primeira utilização no mercado da União, diretamente ao responsável pela implantação ou para utilização própria, para a finalidade prevista; |
Alteração 176
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 13
|
|
Texto da Comissão |
Alteração |
(13) «Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista, mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis; |
(13) «Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista , tal como indicada nas instruções de utilização estabelecidas pelo fornecedor, mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis, incluindo outros sistemas de IA; |
Alteração 177
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 14
|
|
Texto da Comissão |
Alteração |
(14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
(14) «Componente de segurança de um produto ou sistema», em linha com a legislação de harmonização da União enumerada no anexo II, um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
Alteração 178
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 15
|
|
Texto da Comissão |
Alteração |
(15) «Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o utilizador, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA, incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado; |
(15) «Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o responsável pela implantação, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA, bem como informações relativas a precauções a tomar, incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado; |
Alteração 179
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 16
|
|
Texto da Comissão |
Alteração |
(16) «Recolha de um sistema de IA», qualquer medida que vise obter a devolução ao fornecedor de um sistema de IA disponibilizado a utilizadores; |
(16) «Recolha de um sistema de IA», qualquer medida que vise obter a devolução ao fornecedor de um sistema de IA que foi disponibilizado a responsáveis pela implantação; |
Alteração 180
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 20
|
|
Texto da Comissão |
Alteração |
(20) «Avaliação da conformidade», o processo de verificar se estão preenchidos os requisitos estabelecidos no título III, capítulo 2, do presente regulamento relacionados com um sistema de IA; |
(20) «Avaliação da conformidade», o processo de demonstrar se estão preenchidos os requisitos estabelecidos no título III, capítulo 2, do presente regulamento relacionados com um sistema de IA; |
Alteração 181
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 22
|
|
Texto da Comissão |
Alteração |
(22) «Organismo notificado», um organismo de avaliação da conformidade designado nos termos do presente regulamento ou de outra legislação de harmonização da União aplicável; |
(22) «Organismo notificado», um organismo de avaliação da conformidade notificado nos termos do presente regulamento ou de outra legislação de harmonização da União aplicável; |
Alteração 182
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 23
|
|
Texto da Comissão |
Alteração |
(23) «Modificação substancial», uma alteração do sistema de IA após a sua colocação no mercado ou colocação em serviço que afeta a conformidade do sistema de IA com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento ou conduz a uma modificação da finalidade prevista relativamente à qual o sistema de IA foi avaliado; |
(23) «Modificação substancial», uma modificação ou série de modificações do sistema de IA após a sua colocação no mercado ou colocação em serviço que não foi prevista pelo fornecedor na avaliação inicial dos riscos e que como consequência a conformidade do sistema de IA com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento é afetada ou conduz a uma modificação da finalidade prevista relativamente à qual o sistema de IA foi avaliado; |
Alteração 183
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 24
|
|
Texto da Comissão |
Alteração |
(24) «Marcação de conformidade CE» (marcação CE), a marcação pela qual um fornecedor atesta que um sistema de IA está em conformidade com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento e na restante legislação da União aplicável que harmoniza as condições de comercialização de produtos («legislação de harmonização da União») em que seja prevista a respetiva aposição; |
(24) «Marcação de conformidade CE» (marcação CE), a marcação física ou digital pela qual um fornecedor atesta que um sistema de IA ou um produto com um sistema de IA integrado está em conformidade com os requisitos estabelecidos no título III, capítulo 2, do presente regulamento e na restante legislação da União aplicável que harmoniza as condições de comercialização de produtos («legislação de harmonização da União») em que seja prevista a respetiva aposição; |
Alteração 184
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 29
|
|
Texto da Comissão |
Alteração |
(29) «Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos, incluindo os pesos de uma rede neuronal; |
(29) «Dados de treino», os dados usados para treinar um sistema de IA mediante o ajustamento dos seus parâmetros passíveis de serem aprendidos; |
Alteração 185
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 30
|
|
Texto da Comissão |
Alteração |
(30) «Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e para ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outros objetivos, evitar um sobreajustamento; sendo que o conjunto de dados de validação pode ser um conjunto de dados separado ou parte de um conjunto de dados de treino, quer como divisão fixa ou variável; |
(30) «Dados de validação», os dados utilizados para realizar uma avaliação do sistema de IA treinado e para ajustar os seus parâmetros não passíveis de serem aprendidos e o seu processo de aprendizagem, a fim de, entre outros objetivos, evitar um sobreajustamento ou um sobreajustamento, sendo que o conjunto de dados de validação é ser um conjunto de dados separado ou parte de um conjunto de dados de treino, quer como divisão fixa ou variável; |
Alteração 186
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 33
|
|
Texto da Comissão |
Alteração |
(33) «Dados biométricos», dados pessoais resultantes de um tratamento técnico específico das características físicas, fisiológicas ou comportamentais de uma pessoa singular, os quais permitem obter ou confirmar a identificação única dessa pessoa singular, nomeadamente imagens faciais ou dados dactiloscópicos; |
(33) «Dados biométricos», dados biométricos na aceção do artigo 4.º, ponto 14, do Regulamento (UE) 2016/679; |
Alteração 187
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 33-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(33-A) «Dados baseados em biometria», dados resultantes de um tratamento técnico específico relativo às características físicas, fisiológicas ou comportamentais de uma pessoa singular; |
Alteração 188
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 33-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(33-B) «Identificação biométrica», o reconhecimento automatizado de características humanas físicas, fisiológicas, comportamentais e psicológicas para efeitos de determinação da identidade de uma pessoa, comparando os dados biométricos dessa pessoa com os dados biométricos de pessoas armazenados numa base de dados (identificação «um para muitos»); |
Alteração 189
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 33-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(33-C) «Verificação biométrica», a verificação automatizada da identidade de pessoas singulares através da comparação de dados biométricos de uma pessoa com dados biométricos previamente fornecidos (verificação «um para um», incluindo a autenticação); |
Alteração 190
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 33-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(33-D) «Categorias especiais de dados pessoais», as categorias de dados pessoais referidas no artigo 9.º, n.º 1, do Regulamento n.º 2016/679; |
Alteração 191
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 34
|
|
Texto da Comissão |
Alteração |
(34) «Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos; |
(34) «Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções, pensamentos, estados de espírito ou intenções de pessoas ou grupos com base nos seus dados biométricos e dados baseados em biometria; |
Alteração 192
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 35
|
|
Texto da Comissão |
Alteração |
(35) «Sistema de categorização biométrica», um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos; |
(35) «Categorização biométrica», a classificação de pessoas singulares em categorias específicas, ou a dedução das suas características e atributos com base nos seus dados biométricos ou dados baseados em biometria, ou que possam ser inferidas a partir desses dados; |
Alteração 193
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 36
|
|
Texto da Comissão |
Alteração |
(36) «Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que o utilizador do sistema de IA saiba antecipadamente se a pessoa em causa estará presente e pode ser identificada; |
(36) «Sistema de identificação biométrica à distância», um sistema de IA concebido para identificar pessoas singulares à distância por meio da comparação dos dados biométricos de uma pessoa com os dados biométricos contidos numa base de dados de referência, sem que o responsável pela implantação do sistema de IA saiba antecipadamente se a pessoa em causa estará presente e pode ser identificada, excluindo os sistemas de verificação; |
Alteração 194
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 37
|
|
Texto da Comissão |
Alteração |
(37) «Sistema de identificação biométrica à distância “em tempo real”», um sistema de identificação biométrica à distância em que a recolha de dados biométricos, a comparação e a identificação ocorrem sem atraso significativo. Para evitar que as regras sejam contornadas, tal inclui não apenas a identificação instantânea, mas também a identificação com ligeiro atraso; |
(Não se aplica à versão portuguesa.) |
Alteração 195
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 39
|
|
Texto da Comissão |
Alteração |
(39) «Espaço acessível ao público», qualquer espaço físico aberto ao público, independentemente da eventual aplicação de condições de acesso específicas; |
(39) «Espaço acessível ao público», qualquer espaço físico público ou privado aberto ao público, independentemente da eventual aplicação de condições de acesso específicas e eventuais limitações relacionadas com a lotação; |
Alteração 196
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 41
|
|
Texto da Comissão |
Alteração |
(41) «Manutenção da ordem pública», as atividades realizadas por autoridades policiais para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas; |
(41) «Manutenção da ordem pública», as atividades realizadas por autoridades policiais, ou em seu nome, para efeitos de prevenção, investigação, deteção ou repressão de infrações penais ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas; |
Alteração 197
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 42
|
|
Texto da Comissão |
Alteração |
(42) «Autoridade nacional de controlo», a autoridade à qual um Estado-Membro atribui a responsabilidade pela execução e aplicação do presente regulamento, pela coordenação das atividades confiadas a esse Estado-Membro, por atuar como ponto de contacto único para a Comissão e por representar o Estado-Membro no Comité Europeu para a Inteligência Artificial; |
(42) «Autoridade nacional de controlo», uma autoridade pública (Alt. 69) à qual um Estado-Membro atribui a responsabilidade pela execução e aplicação do presente regulamento, pela coordenação das atividades confiadas a esse Estado-Membro, por atuar como ponto de contacto único para a Comissão e por representar o Estado-Membro no conselho de administração do Serviço IA; |
Alteração 198
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 43
|
|
Texto da Comissão |
Alteração |
(43) «Autoridade nacional competente», a autoridade de controlo, a autoridade notificadora ou a autoridade de fiscalização do mercado designadas a nível nacional; |
(43) «Autoridade nacional competente», qualquer autoridade nacional responsável pela aplicação do presente regulamento; |
Alteração 199
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44 – parte introdutória
|
|
Texto da Comissão |
Alteração |
(44) «Incidente grave», qualquer incidente que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
(44) «Incidente grave», qualquer incidente ou anomalia de um sistema de IA que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
|
a) A morte de uma pessoa ou danos graves para a saúde de uma pessoa, |
|
b) Uma perturbação grave e irreversível da gestão e do funcionamento de uma infraestrutura crítica, |
|
b-A) Uma violação dos direitos fundamentais protegidos pelo direito da União, |
|
b-B) Danos graves para bens ou o ambiente; |
Alteração 200
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-A) «Dados pessoais», os dados pessoais na aceção do artigo 4.º, ponto 1, do Regulamento (UE) 2016/679; |
Alteração 201
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-B) «Dados não pessoais», os dados que não sejam dados pessoais; |
Alteração 202
Proposta de regulamento
Artigo 3 – parágrafo 1– ponto 44-C (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-C) «Definição de perfis», qualquer forma de tratamento automatizado de dados pessoais, na aceção do artigo 4.º, ponto 4, do Regulamento (UE) 2016/679; no caso das autoridades responsáveis pela aplicação da lei, na aceção do artigo 3.º, ponto 4, da Diretiva (UE) 2016/680 ou, no caso de instituições, órgãos ou organismos da União, na aceção do artigo 3.º, ponto 5, do Regulamento (UE) 2018/1725; |
Alteração 203
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-D (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-D) «Falsificação profunda», um conteúdo de áudio, imagem ou vídeo manipulado ou sintético que, falsamente, parece ser autêntico ou verdadeiro e que representa pessoas que parecem dizer ou fazer coisas que não disseram nem fizeram, produzido utilizando técnicas de IA, incluindo aprendizagem automática e aprendizagem profunda; |
Alteração 204
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-E (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-E) «Violação generalizada», qualquer ato ou omissão contrário à legislação da União que protege os interesses das pessoas singulares: |
|
a) Que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas que residem em pelo menos dois Estados-Membros que não o Estado-Membro no qual: |
|
i) o ato ou omissão tenha tido origem ou sido cometido, |
|
ii) o fornecedor em causa ou, se aplicável, o seu mandatário está estabelecido, ou, |
|
iii) o responsável pela implantação está estabelecido, caso a violação seja cometida por este; |
|
b) Que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos das pessoas com características comuns, incluindo a mesma prática ilegal, a violação do mesmo interesse, e que ocorra simultaneamente, cometido pelo mesmo operador, em pelo menos três Estados-Membros; |
Alteração 205
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-F (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-F) «Violação generalizada ao nível da União», uma violação generalizada que tenha prejudicado, ou seja suscetível de prejudicar, os interesses coletivos de pessoas em pelo menos dois terços dos Estados-Membros, que, conjuntamente, correspondam a pelo menos dois terços da população da União; |
Alteração 206
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-G (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-G) «Ambiente de testagem da regulamentação», um ambiente controlado criado por uma autoridade pública que facilita o desenvolvimento, teste e validação seguros de sistemas inovadores de IA por um tempo limitado antes de sua colocação no mercado ou colocação em serviço de acordo com um plano específico sob controlo regulamentar; |
Alteração 207
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-H (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-H) «Infraestrutura crítica», um ativo, uma instalação, um equipamento, uma rede ou um sistema, ou parte de um ativo, uma instalação, um equipamento, uma rede ou um sistema, necessário para a prestação de um serviço essencial na aceção do artigo 2.º, n.º 4, da Diretiva (UE) 2022/2557; |
Alteração 208
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-K (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-K) «Classificação social», a avaliação ou classificação de pessoas singulares com base no seu comportamento social, estatuto socioeconómico ou características pessoais ou de personalidade, conhecidas ou previstas; |
Alteração 209
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-L (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-L) «Comportamento social», a forma como uma pessoa singular interage e influencia outras pessoas singulares ou a sociedade; |
Alteração 210
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-M (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-M) «Estado da técnica», a fase de desenvolvimento da capacidade técnica num dado momento no que diz respeito a produtos, processos e serviços, com base em dados consolidados relevantes da ciência, da tecnologia e da experiência; |
Alteração 211
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-N (novo)
|
|
Texto da Comissão |
Alteração |
|
(44-N) «Teste em condições reais», o teste temporário de um sistema de IA para o fim a que se destina em condições reais fora de um laboratório ou de outro ambiente simulado; |
Alteração 212
Proposta de regulamento
Artigo 4.º
|
|
Texto da Comissão |
Alteração |
Artigo 4.º |
Suprimido |
Alterações do anexo I |
|
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para alterar a lista de técnicas e abordagens enumeradas no anexo I, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista. |
|
Alteração 213
Proposta de regulamento
Artigo 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-A |
|
Princípios gerais aplicáveis a todos os sistemas de IA |
|
1. Todos os operadores abrangidos pelo presente regulamento devem envidar todos os esforços para desenvolver e utilizar sistemas de IA ou modelos de base de acordo com os seguintes princípios gerais que estabelecem um quadro de alto nível para promover uma abordagem europeia coerente, centrada no ser humano, em matéria de inteligência artificial ética e de confiança, que esteja plenamente em linha com a Carta e com os valores em que se baseia a União: |
|
a) «Controlo e supervisão por humanos», os sistemas de IA devem ser desenvolvidos e utilizados como uma ferramenta ao serviço das pessoas, que respeite a dignidade humana e a autonomia pessoal, e que funcione de uma forma que possa ser adequadamente controlada e supervisionada por seres humanos; |
|
b) «Robustez técnica e segurança», os sistemas de IA devem ser desenvolvidos e utilizados de forma a minimizar os danos imprevistos e não intencionais, devem ser robustos em caso de problemas imprevistos e devem ser resilientes contra tentativas de alteração da utilização ou do desempenho do sistema de IA tendo em vista permitir uma utilização ilícita por terceiros mal intencionados; |
|
c) «Privacidade e governação de dados», os sistemas de IA devem ser desenvolvidos e utilizados em conformidade com as regras existentes em matéria de privacidade e de proteção de dados e o tratamento de dados deve satisfazer normas elevadas em termos de qualidade e de integridade; |
|
d) «Transparência», os sistemas de IA devem ser desenvolvidos e utilizados de forma a permitir uma rastreabilidade e explicabilidade adequadas, sensibilizando ao mesmo tempo os seres humanos para o facto de estarem a comunicar ou a interagir com um sistema de IA, informando devidamente os utilizadores das capacidades e limitações desse sistema de IA e informando as pessoas afetadas dos direitos que lhes assistem; |
|
e) «Diversidade, não discriminação e equidade», os sistemas de IA devem ser desenvolvidos e utilizados de forma a incluir diferentes intervenientes e a promover a igualdade de acesso, a igualdade de género e a diversidade cultural, evitando simultaneamente efeitos discriminatórios e enviesamentos injustos que sejam proibidos pela legislação da União ou nacional; |
|
f) «Bem-estar social e ambiental», os sistemas de IA devem ser desenvolvidos e utilizados de forma sustentável e respeitadora do ambiente, bem como de forma a beneficiar todos os seres humanos, controlando e avaliando ao mesmo tempo os impactos de longo prazo nas pessoas, na sociedade e na democracia. |
|
2. O n.º 1 não prejudica as obrigações estabelecidas pela legislação da União e nacional em vigor. No caso dos sistemas de IA de risco elevado, os princípios gerais são aplicados e cumpridos pelos fornecedores ou responsáveis pela implantação através dos requisitos estabelecidos nos artigos 8.º a 15.º e as obrigações relevantes estabelecidas no título III, capítulo 3, do presente regulamento. No caso dos modelos de base, os princípios gerais são aplicados e cumpridos pelos fornecedores através dos requisitos estabelecidos nos artigos 28.º a 28.º-B. Para todos os sistemas de IA, a aplicação dos princípios referidos no n.º 1 pode ser alcançada, conforme aplicável, através das disposições do artigo 28.º e do artigo 52.º, ou da aplicação de normas harmonizadas, especificações técnicas e códigos de conduta a que se refere o artigo 69.º, sem criar novas obrigações ao abrigo do presente regulamento. |
|
3. A Comissão e o Serviço IA devem incorporar estes princípios orientadores nos pedidos de normalização, bem como as recomendações que consistam em orientações técnicas para ajudar os fornecedores e os responsáveis pela implantação no desenvolvimento e utilização de sistemas de IA. As organizações europeias de normalização devem ter em conta os princípios gerais referidos no n.º 1 do presente artigo como objetivos orientados para os resultados quando elaborarem as normas harmonizadas pertinentes para sistemas de IA de risco elevado, conforme referido no artigo 40.º, n.º 2-B. |
Alteração 214
Proposta de regulamento
Artigo 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-B |
|
Literacia em IA |
|
1. Quando o presente regulamento for aplicado, a União e os Estados-Membros devem promover medidas para o desenvolvimento de um nível suficiente de literacia em IA, em todos os setores e tendo em conta as diferentes necessidades dos grupos de fornecedores, responsáveis pela implantação e pessoas afetadas, nomeadamente através da educação e da formação, de programas de qualificação e de requalificação e garantindo, ao mesmo tempo, um equilíbrio adequado de género e de idade, com vista a permitir um controlo democrático dos sistemas de IA. |
|
2. Os fornecedores e os responsáveis pela implantação de sistemas de IA devem adotar medidas para garantir um nível suficiente de literacia em IA do seu pessoal e de outras pessoas envolvidas na operação e utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, experiência, qualificações académicas e formação e o contexto em que os sistemas de IA vão ser utilizados, bem como as pessoas ou grupos de pessoas relativamente às quais os sistemas de IA vão ser utilizados. |
|
3. Essas medidas de literacia devem consistir, em especial, no ensino de noções e competências básicas sobre os sistemas de IA e o seu funcionamento, incluindo os diferentes tipos de produtos e utilizações e os respetivos riscos e benefícios. |
|
4. Um nível suficiente de literacia em IA é um que contribui, conforme necessário, para a capacidade de os fornecedores e os responsáveis pela implantação garantirem o cumprimento e a aplicação do presente regulamento. |
Alteração 215
Proposta de regulamento
Artigo 5 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa; |
a) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa ou técnicas manifestamente de manipulação ou enganadoras, com o objetivo ou o efeito de distorcer substancialmente o comportamento de uma pessoa ou grupo de pessoas prejudicando consideravelmente a sua capacidade de tomar uma decisão informada e, dessa forma, levando a pessoa a tomar uma decisão que, caso contrário, não tomaria, de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa, ou a um grupo de pessoas; |
|
A proibição de sistemas de IA que utilizem as técnicas subliminares a que se refere o primeiro parágrafo não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal; |
Alteração 216
Proposta de regulamento
Artigo 5 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental, a fim de distorcer substancialmente o comportamento de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa; |
b) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de uma pessoa ou de um grupo específico de pessoas, incluindo as suas características conhecidas ou previstas da personalidade ou da situação social ou económica, a sua idade ou capacidade mental, com o objetivo ou o efeito de distorcer substancialmente o comportamento da pessoa ou de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos significativos a essa ou a outra pessoa; |
Alteração 217
Proposta de regulamento
Artigo 5 – n.º 1 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de categorização biométrica, que categorizam as pessoas singulares de acordo com atributos ou características sensíveis ou protegidos, ou com base nesses atributos ou características inferidos. Esta proibição não se aplica a sistemas de IA concebidos para serem utilizados para fins terapêuticos aprovados com base no consentimento informado específico das pessoas que lhes são expostas ou, se for caso disso, do seu tutor legal. |
Alteração 218
Proposta de regulamento
Artigo 5 – n.º 1 – alínea c) – parte introdutória
|
|
Texto da Comissão |
Alteração |
c) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA por autoridades públicas ou em seu nome para efeitos de avaliação ou classificação da credibilidade de pessoas singulares durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas: |
c) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para efeitos de avaliação ou de classificação social de pessoas singulares ou de grupos de pessoas durante um certo período com base no seu comportamento social ou em características de personalidade ou pessoais, conhecidas, inferidas ou previsíveis, em que a classificação social conduz a uma das seguintes situações ou a ambas: |
Alteração 219
Proposta de regulamento
Artigo 5 – n.º 1 – alínea c) – subalínea i)
|
|
Texto da Comissão |
Alteração |
i) tratamento prejudicial ou desfavorável de certas pessoas singulares ou grupos inteiros das mesmas em contextos sociais não relacionados com os contextos nos quais os dados foram originalmente gerados ou recolhidos, |
(Não se aplica à versão portuguesa.) |
Alteração 220
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d) – parte introdutória
|
|
Texto da Comissão |
Alteração |
d) A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, salvo se essa utilização for estritamente necessária para alcançar um dos seguintes objetivos: |
d) A utilização de sistemas de identificação biométrica à distância em «tempo real» em espaços acessíveis ao público; |
Alteração 221
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d) – subalínea i)
|
|
Texto da Comissão |
Alteração |
i) a investigação seletiva de potenciais vítimas específicas de crimes, nomeadamente crianças desaparecidas, |
Suprimido |
Alteração 222
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d) – subalínea ii)
|
|
Texto da Comissão |
Alteração |
ii) a prevenção de uma ameaça específica, substancial e iminente à vida ou à segurança física de pessoas singulares ou de um ataque terrorista, |
Suprimido |
Alteração 223
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d) – subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) a deteção, localização, identificação ou instauração de ação penal relativamente a um infrator ou suspeito de uma infração penal referida no artigo 2.º, n.º 2, da Decisão-Quadro 2002/584/JAI do Conselho62 e punível no Estado-Membro em causa com pena ou medida de segurança privativas de liberdade de duração máxima não inferior a três anos e tal como definidas pela legislação desse Estado-Membro. |
Suprimido |
__________________ |
|
62 Decisão-quadro 2002/584/JAI do Conselho, de 13 de junho de 2002, relativa ao mandado de detenção europeu e aos processos de entrega entre os Estados-Membros (JO L 190 de 18.7.2002, p. 1). |
|
Alteração 224
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-A) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA para a realização de avaliações de risco de pessoas singulares ou de grupos de pessoas, a fim de avaliar o risco de uma pessoa singular poder cometer, ou voltar a cometer uma infração, ou para prever a ocorrência ou a recorrência de uma infração penal ou administrativa real ou potencial com base na definição do perfil de uma pessoa singular ou na avaliação de traços e características de personalidade, incluindo na localização da pessoa, ou no comportamento criminal passado de pessoas singulares ou de grupos de pessoas singulares; |
Alteração 225
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-B) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA que criam ou expandem bases de dados de reconhecimento facial através da recolha aleatória de imagens faciais a partir da Internet ou de imagens de CCTV; |
Alteração 226
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-C) A colocação no mercado, a colocação em serviço ou a utilização de sistemas de IA para inferir emoções de uma pessoa singular nos domínios da aplicação da lei e da gestão das fronteiras, no local de trabalho e nos estabelecimentos de ensino. |
Alteração 227
Proposta de regulamento
Artigo 5 – n.º 1 – alínea d-D) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-D) A colocação em serviço ou a utilização de sistemas de IA para a análise de vídeos de espaços acessíveis ao público através de sistemas de identificação biométrica à distância «em diferido», a menos que estejam sujeitos a uma autorização prejudicial em conformidade com a legislação da União e sejam estritamente necessários para a pesquisa precisa associada a uma infração penal grave específica, tal como definida no artigo 83.º, n.º 1, do TFUE, que já tenha ocorrido para efeitos de aplicação da lei. |
Alteração 228
Proposta de regulamento
Artigo 5 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. O presente artigo não afeta as proibições aplicáveis quando uma prática de inteligência artificial viola outra legislação da UE, incluindo o acervo da UE em matéria de proteção de dados, de não discriminação e da concorrência; |
Alteração 229
Proposta de regulamento
Artigo 5 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objetivos referidos no n.º 1, alínea d), deve ter em conta os seguintes elementos: |
Suprimido |
a) A natureza da situação que origina a possível utilização, em especial a gravidade, a probabilidade e a magnitude dos prejuízos causados na ausência da utilização do sistema; |
|
b) As consequências da utilização do sistema para os direitos e as liberdades de todas as pessoas afetadas, em especial a gravidade, a probabilidade e a magnitude dessas consequências. |
|
Além disso, a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública que vise alcançar um dos objetivos referidos no n.º 1, alínea d), deve observar salvaguardas e condições necessárias e proporcionadas em relação a tal utilização, nomeadamente no respeitante a limitações temporais, geográficas e das pessoas visadas. |
|
Alteração 230
Proposta de regulamento
Artigo 5 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. No tocante ao n.º 1, alínea d), e ao n.º 2, cada utilização específica de um sistema de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública está sujeita a autorização prévia concedida por uma autoridade judiciária ou por uma autoridade administrativa independente do Estado-Membro no qual a utilização terá lugar após apresentação de um pedido fundamentado em conformidade com as regras de execução previstas no direito nacional a que se refere o n.º 4. Contudo, numa situação de urgência devidamente justificada, a utilização do sistema pode ser iniciada sem uma autorização e esta pode ser solicitada apenas durante ou após a utilização. |
Suprimido |
A autoridade judiciária ou administrativa competente apenas deve conceder a autorização se considerar, com base em dados objetivos ou indícios claros que lhe tenham sido apresentados, que a utilização do sistema de identificação biométrica à distância «em tempo real» em apreço é necessária e proporcionada para alcançar um dos objetivos especificados no n.º 1, alínea d), conforme identificado no pedido. Ao decidir sobre o pedido, a autoridade judiciária ou administrativa competente tem em conta os elementos referidos no n.º 2. |
|
Alteração 231
Proposta de regulamento
Artigo 5 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Um Estado-Membro pode decidir prever a possibilidade de autorizar total ou parcialmente a utilização de sistemas de identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública dentro dos limites e sob as condições enumeradas no n.º 1, alínea d), e nos n.os 2 e 3. Esse Estado-Membro estabelece na sua legislação nacional as regras pormenorizadas aplicáveis ao pedido, à emissão e ao exercício das autorizações a que se refere o n.º 3, bem como à supervisão das mesmas. Essas regras especificam igualmente em relação a que objetivos enumerados no n.º 1, alínea d), incluindo quais das infrações penais referidas na subalínea iii) da mesma, as autoridades competentes podem ser autorizadas a usar esses sistemas para efeitos de manutenção da ordem pública. |
Suprimido |
Alteração 232
Proposta de regulamento
Artigo 6 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou é, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II; |
a) O sistema de IA destina-se a ser utilizado como um componente de segurança de um produto ou o sistema de IA é, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II; |
Alteração 233
Proposta de regulamento
Artigo 6 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Nos termos da legislação de harmonização da União enumerada no anexo II, o produto cujo componente de segurança é o sistema de IA, ou o próprio sistema de IA enquanto produto deve ser sujeito a uma avaliação da conformidade por terceiros com vista à colocação no mercado ou à colocação em serviço. |
b) Nos termos da legislação de harmonização da União enumerada no anexo II, o produto cujo componente de segurança nos termos da alínea a) é o sistema de IA, ou o próprio sistema de IA enquanto produto deve ser sujeito a uma avaliação da conformidade por terceiros relacionada com os riscos para a saúde e a segurança, com vista à colocação no mercado ou à colocação em serviço. |
Alteração 234
Proposta de regulamento
Artigo 6 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Além dos sistemas de IA de risco elevado referidos no n.º 1, os sistemas de IA referidos no anexo III são também considerados de risco elevado. |
2. Além dos sistemas de IA de risco elevado referidos no n.º 1, os sistemas de IA abrangidos por um ou mais domínios críticos e casos de utilização referidos no anexo III são considerados de risco elevado, se representarem um risco considerável para a saúde, a segurança ou os direitos fundamentais de pessoas singulares. Se um sistema de IA for abrangido pelo anexo III, ponto 2, deve ser considerado de risco elevado se representar um risco significativo de dano para o ambiente. |
|
A Comissão deve, seis meses antes da entrada em vigor do presente regulamento, após consulta do Serviço IA e das partes interessadas relevantes, fornecer orientações que especifiquem claramente as circunstâncias em que os resultados dos sistemas de IA referidos no anexo III representariam um risco significativo de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares ou os casos em que tal não seria o caso. |
Alteração 235
Proposta de regulamento
Artigo 6 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. Caso os fornecedores abrangidos por um ou mais dos domínios críticos e casos de utilização referidos no anexo III considerem que o seu sistema de IA não representa um risco significativo, tal como descrito no n.º 2, devem apresentar uma notificação fundamentada à autoridade nacional de controlo de que não estão sujeitos aos requisitos do título III, capítulo 2, do presente regulamento. Se o sistema de IA se destinar a ser utilizado em dois ou mais Estados-Membros, essa notificação deve ser dirigida ao Serviço IA. Sem prejuízo do disposto no artigo 65.º, a autoridade nacional de controlo deve rever e responder à notificação, diretamente ou através do Serviço IA, no prazo de três meses, se considerar que o sistema de IA está classificado incorretamente. |
Alteração 236
Proposta de regulamento
Artigo 6 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-B. Os fornecedores que classifiquem incorretamente os seus sistemas de IA como não sujeitos aos requisitos do título III, capítulo 2, do presente regulamento e que o coloquem no mercado antes do termo do prazo para a apresentação de objeções pelas autoridades nacionais de controlo estão sujeitos a coimas nos termos do artigo 71.º. |
Alteração 237
Proposta de regulamento
Artigo 6 – n.º 2-B (novo)
|
|
Texto da Comissão |
Alteração |
|
2-C. As autoridades nacionais de controlo devem apresentar um relatório anual ao Serviço IA especificando o número de notificações recebidas, os respetivos domínios de risco elevado em causa e as decisões tomadas relativamente às notificações recebidas. |
Alteração 238
Proposta de regulamento
Artigo 7 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar a lista do anexo III, aditando sistemas de IA de risco elevado que preencham ambas as condições que se seguem: |
1. A Comissão fica habilitada a adotar atos delegados em conformidade com o artigo 73.º para alterar o anexo III aditando ou modificando os domínios ou casos de utilização de sistemas de IA de risco elevado em que estes representem um risco significativo de danos para a saúde e a segurança, ou um impacto adverso nos direitos fundamentais, no ambiente, na democracia ou no Estado de direito, e que esse risco seja, quanto à sua gravidade e probabilidade de ocorrência, equivalente ou superior ao risco de danos ou de impacto adverso colocado pelos sistemas de IA de risco elevado já referidos no anexo III. |
Alteração 239
Proposta de regulamento
Artigo 7 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III, pontos 1 a 8; |
Suprimido |
Alteração 240
Proposta de regulamento
Artigo 7 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
Suprimido |
Alteração 241
Proposta de regulamento
Artigo 7 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. A Comissão fica igualmente habilitada a adotar atos delegados em conformidade com o artigo 73.º para eliminar os casos de utilização de sistemas de IA de risco elevado da lista do anexo III se as condições referidas no n.º 1 deixarem de se aplicar; |
Alteração 242
Proposta de regulamento
Artigo 7 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
2. Ao avaliar um sistema de IA para efeitos do disposto no n.º 1 e no n.º 1-A, a Comissão tem em consideração os seguintes critérios: |
Alteração 243
Proposta de regulamento
Artigo 7.º – n.º 2 – alínea a–A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) As capacidades e funcionalidades gerais do sistema de IA, independentemente da sua finalidade prevista; |
Alteração 244
Proposta de regulamento
Artigo 7 – n.º 2 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) A natureza e o volume dos dados tratados e utilizados pelo sistema de IA; |
Alteração 245
Proposta de regulamento
Artigo 7 – n.º 2 – alínea b-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-B) Em que medida é que o sistema de IA atua de forma autónoma; |
Alteração 246
Proposta de regulamento
Artigo 7 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso nos direitos fundamentais ou suscitou preocupações significativas quanto à concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes; |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança, teve um impacto adverso nos direitos fundamentais, no ambiente, na democracia e no Estado de direito ou suscitou preocupações significativas quanto à probabilidade desses danos ou desse impacto adverso, conforme demonstrado, por exemplo, por relatórios ou alegações documentadas apresentadas às autoridades nacionais de controlo, à Comissão, ao Serviço IA, à AEPD ou à Agência dos Direitos Fundamentais da União Europeia; |
Alteração 247
Proposta de regulamento
Artigo 7 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas; |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas, ou para afetar de forma desproporcionada um determinado grupo de pessoas; |
Alteração 248
Proposta de regulamento
Artigo 7 – n.º 2 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas em relação ao resultado produzido por um sistema de IA, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir-se desse resultado; |
e) O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas em relação ao resultado produzido envolvendo um sistema de IA, sendo esse resultado puramente acessório em relação à ação ou decisão pertinente a tomar, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir-se desse resultado; |
Alteração 249
Proposta de regulamento
Artigo 7 – n.º 2 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) A potencial utilização abusiva e maliciosa do sistema de IA e da tecnologia subjacente; |
Alteração 250
Proposta de regulamento
Artigo 7 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) A posição de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido a um desequilíbrio de poder ou de conhecimento, a circunstâncias económicas ou sociais, ou à idade; |
f) A posição de desequilíbrio de poder ou de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido ao estatuto, à autoridade, ao conhecimento, a circunstâncias económicas ou sociais, ou à idade; |
Alteração 251
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
(g) A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com impacto na saúde ou na segurança das pessoas não podem ser considerados como facilmente reversíveis; |
g) A facilidade de reversão ou correção do resultado produzido envolvendo um sistema de IA, tendo em conta que os resultados com impacto adverso na saúde, na segurança, nos direitos fundamentais das pessoas, no ambiente, ou na democracia e no Estado de direito não podem ser considerados como facilmente reversíveis; |
Alteração 252
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-A) O grau de disponibilidade e utilização de soluções técnicas eficazes e mecanismos de controlo, fiabilidade e corrigibilidade do sistema de IA; |
Alteração 253
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-B) A magnitude e a probabilidade das vantagens da implantação do sistema de IA para indivíduos, grupos ou a sociedade em geral, incluindo possíveis melhorias na segurança dos produtos; |
Alteração 254
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-C) O grau de supervisão humana e a possibilidade de um ser humano interceder, a fim de anular uma decisão ou recomendações que possam causar danos potenciais; |
Alteração 255
Proposta de regulamento
Artigo 7 – n.º 2 – alínea h)
|
|
Texto da Comissão |
Alteração |
i) medidas de reparação eficazes em relação aos riscos representados por um sistema de IA, com exclusão de pedidos de indemnização, |
h) Em que medida a legislação da União em vigor prevê: |
|
i) medidas de reparação eficazes em relação aos danos causados por um sistema de IA, com exclusão de pedidos diretos ou indiretos de indemnização, |
|
ii) medidas eficazes para prevenir ou minimizar substancialmente esses riscos. |
Alteração 256
Proposta de regulamento
Artigo 7 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. Ao efetuar a avaliação de um sistema de IA para efeitos dos n.os 1 e 1-A, a Comissão deve consultar o Serviço IA e, quando pertinente, representantes dos grupos sobre os quais um sistema de IA tem impacto, o setor de atividade, peritos independentes, os parceiros sociais e organizações da sociedade civil. A Comissão deve igualmente organizar consultas públicas a este respeito e disponibilizar ao público os resultados dessas consultas e da avaliação final; |
Alteração 257
Proposta de regulamento
Artigo 7 – n.º 2-B (novo)
|
|
Texto da Comissão |
Alteração |
|
2-B. O Serviço IA, as autoridades nacionais de controlo ou o Parlamento Europeu podem solicitar à Comissão que reavalie e reclassifique a categorização dos riscos de um sistema de IA, em conformidade com os n.os 1 e 1-A. A Comissão deve fundamentar a sua decisão e divulgar as suas razões.
|
Alteração 258
Proposta de regulamento
Artigo 8 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. No cumprimento dos requisitos estabelecidos no presente capítulo, devem ter-se em conta as orientações desenvolvidas conforme referido no artigo 82.º-B, o estado da técnica geralmente reconhecido, inclusive como refletido em normas harmonizadas e especificações comuns pertinentes referidas nos artigos 40.º e 41.º ou as já estabelecidas pela legislação de harmonização da União; |
Alteração 259
Proposta de regulamento
Artigo 8 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A finalidade prevista do sistema de IA de risco elevado e o sistema de gestão de riscos a que se refere o artigo 9.º devem ser tidos em conta para efeitos do cumprimento desses requisitos. |
2. A finalidade prevista do sistema de IA de risco elevado, as utilizações indevidas razoavelmente previsíveis e o sistema de gestão de riscos a que se refere o artigo 9.º devem ser tidos em conta para efeitos do cumprimento desses requisitos. |
Alteração 260
Proposta de regulamento
Artigo 8 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. Desde que os requisitos do título III, capítulos 2 e 3, ou do título VIII, capítulos 1, 2 e 3, aplicáveis aos sistemas de IA de risco elevado sejam abrangidos pela legislação de harmonização da União, enumerada no anexo II, secção A, considera-se que os requisitos ou as obrigações desses capítulos do presente regulamento são cumpridos, desde que incluam o componente de IA. Os requisitos do título III, capítulos 2 e 3, ou do título VIII, capítulos 1, 2 e 3, aplicáveis aos sistemas de IA de risco elevado não abrangidos pela legislação de harmonização da União, enumerada no anexo II, secção A, devem ser incorporados nessa legislação de harmonização da União, quando aplicável. A avaliação da conformidade pertinente deve ser efetuada no âmbito dos procedimentos previstos na legislação de harmonização da União, enumerada no anexo II, secção A. |
Alteração 261
Proposta de regulamento
Artigo 9 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação a sistemas de IA de risco elevado. |
1. Deve ser criado, implantado, documentado e mantido um sistema de gestão de riscos em relação a sistemas de IA de risco elevado, durante todo o ciclo de vida do sistema de IA. O sistema de gestão de riscos, ou uma parte deste, pode ser integrado nos procedimentos de gestão de riscos já existentes, relacionados com a legislação setorial da União aplicável, desde que cumpra os requisitos do presente artigo. |
Alteração 262
Proposta de regulamento
Artigo 9 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. O sistema de gestão de riscos deve consistir num processo iterativo contínuo, executado ao longo de todo o ciclo de vida de um sistema de IA de risco elevado, o que requer atualizações regulares sistemáticas. Deve compreender as seguintes etapas: |
2. O sistema de gestão de riscos deve consistir num processo iterativo contínuo, executado ao longo de todo o período de vida de um sistema de IA de risco elevado, o que requer revisões e atualizações regulares do processo de gestão de riscos para assegurar a sua eficácia contínua, bem como a documentação de quaisquer decisões e ações significativas tomadas no âmbito do presente artigo. Deve compreender as seguintes etapas: |
Alteração 263
Proposta de regulamento
Artigo 9 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Identificação e análise dos riscos conhecidos e previsíveis associados a cada sistema de IA de risco elevado; |
a) Identificação, estimativa e avaliação dos riscos conhecidos e razoavelmente previsíveis que o sistema de IA de risco elevado pode representar para a saúde ou a segurança das pessoas singulares, os seus direitos fundamentais, incluindo a igualdade de acesso e de oportunidades, a democracia e o Estado de direito ou o ambiente, quando o sistema de IA de risco elevado for utilizado de acordo com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsíveis; |
Alteração 264
Proposta de regulamento
Artigo 9 – n.º 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Estimativa e avaliação de riscos que podem surgir quando o sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista e em condições de utilização indevida razoavelmente previsíveis; |
Suprimido |
Alteração 265
Proposta de regulamento
Artigo 9 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Avaliação de outros riscos que possam surgir, baseada na análise dos dados recolhidos a partir do sistema de acompanhamento pós-comercialização a que se refere o artigo 61.º; |
c) Avaliação de novos riscos significativos, como os descritos na alínea a) e identificados com base na análise dos dados recolhidos a partir do sistema de acompanhamento pós-comercialização a que se refere o artigo 61.º; |
Alteração 266
Proposta de regulamento
Artigo 9 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Adoção de medidas de gestão de riscos adequadas em conformidade com o disposto nos números que se seguem. |
d) Adoção de medidas de gestão de riscos apropriadas e específicas, concebidas para abordar os riscos identificados nas alíneas a) e b) do presente número, em conformidade com o disposto nos números que se seguem. |
Alteração 267
Proposta de regulamento
Artigo 9 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem ter em devida consideração os efeitos e eventuais interações resultantes da aplicação combinada dos requisitos estabelecidos no presente capítulo. Devem também ter em conta o estado da técnica geralmente reconhecido, incluindo o que se encontrar refletido em normas harmonizadas ou especificações comuns pertinentes. |
3. O sistema de gestão de riscos a que se refere o n.º 2, alínea d) devemter em devida consideração os efeitos e eventuais interações resultantes da aplicação combinada dos requisitos estabelecidos no presente capítulo, com vista a atenuar os riscos de forma eficaz, garantindo, simultaneamente, um cumprimento adequado e proporcionado dos requisitos. |
Alteração 268
Proposta de regulamento
Artigo 9 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem levar a que o eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Os riscos residuais devem ser comunicados ao utilizador. |
4. O sistema de gestão de riscos a que se refere o n.º 2, alínea d) devemlevar a que o risco residual relevante associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados razoavelmente aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Esses riscos residuais e os juízos fundamentados apresentados devem ser comunicados ao responsável pela implantação. |
|
Ao identificar as medidas de gestão de riscos mais apropriadas, deve assegurar-se o seguinte: |
Alteração 269
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Eliminação ou redução de riscos tanto quanto possível, graças a processos de conceção e desenvolvimento adequados; |
a) Eliminação ou redução de riscos identificados tanto quanto seja tecnicamente viável, graças a processos de conceção e desenvolvimento do sistema de IA de risco elevado adequados, que envolvam, quando pertinente, peritos e partes interessadas externas; |
Alteração 270
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Se for caso disso, adoção de medidas de atenuação e controlo adequadas em relação a riscos que não possam ser eliminados; |
b) Se for caso disso, adoção de medidas de atenuação e controlo adequadas para fazer face a riscos significativos que não possam ser eliminados; |
Alteração 271
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Prestação de informações adequadas nos termos do artigo 13.º, em especial no atinente aos riscos a que se refere o n.º 2, alínea b), do presente artigo e, se for caso disso, formação dos utilizadores. |
c) Prestação das informações exigidas nos termos do artigo 13.º e, se for caso disso, formação dos responsáveis pela implantação. |
Alteração 272
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Na eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, há que ter em consideração o conhecimento técnico, a experiência, a educação e a formação que se pode esperar que o utilizador possua e o ambiente em que está previsto utilizar o sistema. |
Na eliminação ou redução de riscos relacionados com a utilização do sistema de IA de risco elevado, os fornecedores devem ter em consideração o conhecimento técnico, a experiência, a educação e a formação de que o responsável pela implantação possa precisar, nomeadamente no que diz respeito ao ambiente em que está previsto utilizar o sistema. |
Alteração 273
Proposta de regulamento
Artigo 9 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Os sistemas de IA de risco elevado devem ser sujeitos a testes para que se identifiquem as medidas de gestão de riscos mais apropriadas. Os testes asseguram que os sistemas de IA de risco elevado tenham um desempenho coerente com a finalidade prevista e que cumpram os requisitos estabelecidos no presente capítulo. |
5. Os sistemas de IA de risco elevado devem ser sujeitos a testes para que se identifiquem as medidas de gestão de riscos mais apropriadas e específicas e para que se ponderem eventuais medidas perante as potenciais vantagens e os objetivos previstos do sistema. Os testes asseguram que os sistemas de IA de risco elevado tenham um desempenho coerente com a finalidade prevista e que cumpram os requisitos estabelecidos no presente capítulo. |
Alteração 274
Proposta de regulamento
Artigo 9 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os procedimentos de teste são adequados para alcançar a finalidade prevista do sistema de IA e não precisam de ir além do necessário para alcançar essa finalidade. |
6. Os procedimentos de teste são adequados para alcançar a finalidade prevista do sistema de IA. |
Alteração 275
Proposta de regulamento
Artigo 9 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. Os testes dos sistemas de IA de risco elevado devem ser realizados, consoante apropriado, em qualquer momento durante o processo de desenvolvimento e, em qualquer caso, antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados relativamente a métricas previamente definidas e a limiares probabilísticos que são apropriados para a finalidade prevista do sistema de IA de risco elevado. |
7. Os testes dos sistemas de IA de risco elevado devem ser realizados antes da colocação no mercado ou da colocação em serviço. Os testes devem ser realizados relativamente a métricas previamente definidas e a limiares probabilísticos que sejam apropriados para a finalidade prevista ou para a utilização indevida razoavelmente previsível do sistema de IA de risco elevado. |
Alteração 276
Proposta de regulamento
Artigo 9 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, deve tomar-se especificamente em conta se o sistema de IA de risco elevado é suscetível de ser acedido por crianças ou de ter impacto nas mesmas. |
8. Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, os fornecedores devem tomar especificamente em conta se o sistema de IA de risco elevado é suscetível de ter um impacto adverso em grupos vulneráveis de pessoas ou crianças. |
Alteração 277
Proposta de regulamento
Artigo 9 – n.º 9
|
|
Texto da Comissão |
Alteração |
9. Em relação às instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos nos n.os 1 a 8 fazem parte dos procedimentos de gestão de riscos estabelecidos por essas instituições nos termos do artigo 74.º da referida diretiva. |
9. Em relação a fornecedores e a sistemas de IA já abrangidos pela legislação da União que os obriga a implantar sistemas de gestão de riscos específicos, nomeadamente instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos nos n.os 1 a 8 fazem parte ou podem ser combinados com os procedimentos de gestão de riscos estabelecidos por essa legislação da União. |
Alteração 278
Proposta de regulamento
Artigo 10 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5. |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5, desde que tal seja tecnicamente viável, em função do segmento de mercado ou do âmbito de aplicação em questão. |
|
As técnicas que não exijam dados de cálculo rotulados, como a aprendizagem não supervisionada e a aprendizagem por reforço, devem ser desenvolvidas com base em conjuntos de dados, tais como os conjuntos de dados para testes e verificações, que cumpram os critérios de qualidade referidos nos n.os 2 a 5. |
Alteração 279
Proposta de regulamento
Artigo 10 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Os conjuntos de dados de treino, validação e teste devem estar sujeitos a práticas adequadas de governação e gestão de dados. Essas práticas dizem nomeadamente respeito: |
2. Os conjuntos de dados de treino, validação e teste devem estar sujeitos a uma governação de dados adequada para o contexto de utilização, bem como para a finalidade a que o sistema de IA se destina. Essas medidas dizem nomeadamente respeito: |
Alteração 280
Proposta de regulamento
Artigo 10 – n.º 2 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
(a-A) À transparência quanto à finalidade original da recolha de dados; |
Alteração 281
Proposta de regulamento
Artigo 10 – n.º 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) À recolha de dados; |
b) Aos processos de recolha de dados; |
Alteração 282
Proposta de regulamento
Artigo 10 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Às operações de preparação e tratamento de dados necessárias, tais como anotação, rotulagem, limpeza, enriquecimento e agregação; |
c) Às operações de preparação e tratamento de dados, tais como anotação, rotulagem, limpeza, atualização, enriquecimento e agregação; |
Alteração 283
Proposta de regulamento
Artigo 10 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) À formulação dos pressupostos aplicáveis, nomeadamente no que diz respeito às informações que os dados devem medir e representar; |
d) À formulação dos pressupostos, nomeadamente no que diz respeito às informações que os dados devem medir e representar; |
Alteração 284
Proposta de regulamento
Artigo 10 – n.º 2 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) À avaliação prévia da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários; |
e) A uma avaliação da disponibilidade, quantidade e adequação dos conjuntos de dados que são necessários; |
Alteração 285
Proposta de regulamento
Artigo 10 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Ao exame para detetar eventuais enviesamentos; |
f) Ao exame para detetar eventuais enviesamentos suscetíveis de afetar a saúde e a segurança das pessoas, ter um impacto negativo nos direitos fundamentais ou conduzir a uma discriminação proibida pela legislação da União, especialmente quando os resultados obtidos a partir dos dados influenciem os dados de entrada para operações futuras («circuitos de realimentação») e medidas apropriadas para detetar, prevenir e atenuar eventuais enviesamentos; |
Alteração 286
Proposta de regulamento
Artigo 10 – n.º 2 – alínea f-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
f-A) Às medidas apropriadas para detetar, prevenir e atenuar os eventuais enviesamentos; |
Alteração 287
Proposta de regulamento
Artigo 10 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) À identificação de eventuais lacunas ou deficiências de dados e de possíveis soluções para as mesmas. |
g) À identificação de lacunas ou deficiências de dados relevantes, que impeçam o cumprimento do presente regulamento, e de possíveis soluções para as mesmas; |
Alteração 288
Proposta de regulamento
Artigo 10 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
3. Os conjuntos de dados de treino e, se aplicável, os conjuntos de dados de validação e teste, incluindo os rótulos, devem ser pertinentes, suficientemente representativos, devidamente controlados em termos de erros e tão completos quanto possível, tendo em vista a finalidade prevista. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em relação às quais o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados devem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
Alteração 289
Proposta de regulamento
Artigo 10 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
4. Os conjuntos de dados devem ter em conta, na medida do necessário para a finalidade prevista ou para as utilizações indevidas razoavelmente previsíveis do sistema de IA, as características ou os elementos que são idiossincráticos do enquadramento geográfico, cultural, comportamental, contextual ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
Alteração 290
Proposta de regulamento
Artigo 10 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Na medida do estritamente necessário para assegurar o controlo, a deteção e a correção de enviesamentos em relação a sistemas de IA de risco elevado, os fornecedores desses sistemas podem tratar categorias especiais de dados pessoais a que se refere o artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, o artigo 10.º da Diretiva (UE) 2016/680 e o artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração, tais como a pseudonimização ou a cifragem nos casos em que a anonimização possa afetar significativamente a finalidade preconizada. |
5. Na medida do estritamente necessário para assegurar a deteção e a correção de enviesamentos negativos em relação a sistemas de IA de risco elevado, os fornecedores desses sistemas podem excecionalmente tratar categorias especiais de dados pessoais a que se refere o artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, o artigo 10.º da Diretiva (UE) 2016/680 e o artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração. Em especial, são aplicáveis todas as seguintes condições para que se realize este tratamento: a) A deteção e a correção de enviesamentos não podem ser eficazmente efetuadas através do tratamento de dados sintéticos ou anonimizados; |
|
b) Os dados são pseudonimizados; |
|
c) O fornecedor toma as medidas técnicas e organizativas adequadas para assegurar que os dados tratados para efeitos do presente número estejam em segurança, sejam protegidos, sujeitos a garantias adequadas e apenas as pessoas autorizadas tenham acesso a esses dados com obrigações de confidencialidade apropriadas; |
|
d) Os dados tratados para efeitos do presente número não devem ser transmitidos, transferidos ou acedidos de outro modo por outras partes; |
|
e) Os dados tratados para efeitos do presente número são protegidos através de medidas técnicas e organizativas adequadas e apagados assim que o enviesamento for corrigido ou que os dados pessoais atinjam o fim do respetivo período de conservação; |
|
f) Existem medidas eficazes e adequadas para garantir a disponibilidade, a segurança e a resiliência dos sistemas e dos serviços de tratamento contra incidentes técnicos ou físicos; |
|
g) Existem medidas eficazes e adequadas para garantir a segurança física dos locais onde os dados são armazenados e tratados, a governação e a gestão internas do serviço de informática e do serviço de segurança informática, a certificação de processos e produtos; |
|
Os fornecedores que recorram a esta disposição devem elaborar documentação que explique por que motivo o tratamento de categorias especiais de dados pessoais foi necessário para detetar e corrigir enviesamentos. |
Alteração 291
Proposta de regulamento
Artigo 10 – n.º 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
6-A. Sempre que o fornecedor não possa cumprir as obrigações estabelecidas no presente artigo em virtude de não ter acesso aos dados e os dados sejam detidos exclusivamente pelo responsável pela implantação, este pode, com base num contrato, ser responsabilizado por qualquer violação do presente artigo. |
Alteração 292
Proposta de regulamento
Artigo 11 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais competentes e aos organismos notificados todas as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV. |
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais de controlo e aos organismos notificados as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV ou, no caso das PME e das empresas em fase de arranque, qualquer documentação equivalente que cumpra os mesmos objetivos, sob reserva da aprovação da autoridade nacional competente. |
Alteração 293
Proposta de regulamento
Artigo 11 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Caso um sistema de IA de risco elevado relacionado com um produto, ao qual sejam aplicáveis os atos jurídicos enumerados no anexo II, secção A, seja colocado no mercado ou colocado em serviço, deve ser elaborada uma única documentação técnica que contenha todas as informações enumeradas no anexo IV e as informações exigidas nos termos desses atos jurídicos. |
2. Caso um sistema de IA de risco elevado relacionado com um produto, ao qual sejam aplicáveis os atos jurídicos enumerados no anexo II, secção A, seja colocado no mercado ou colocado em serviço, deve ser elaborada uma única documentação técnica que contenha todas as informações enumeradas no n.º 1 e as informações exigidas nos termos desses atos jurídicos. |
Alteração 294
Proposta de regulamento
Artigo 11 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Os fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter a documentação técnica como parte da documentação relativa a governação interna, sistemas, processos e mecanismos elaborada nos termos do artigo 74.º da referida diretiva. |
Alteração 295
Proposta de regulamento
Artigo 12 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades que permitam o registo automático de eventos («registos») enquanto o sistema de IA de risco elevado estiver em funcionamento. Essas capacidades de registo devem estar em conformidade com normas reconhecidas ou especificações comuns. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades que permitam o registo automático de eventos («registos») enquanto o sistema de IA de risco elevado estiver em funcionamento. Essas capacidades de registo devem estar em conformidade com o estado da técnica e normas reconhecidas ou especificações comuns. |
Alteração 296
Proposta de regulamento
Artigo 12 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As capacidades de registo devem assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo do seu ciclo de vida que seja adequado à finalidade prevista do sistema. |
2. Para assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo de todo o seu período de vida que seja adequado à finalidade prevista do sistema, as capacidades de registo devem facilitar o controlo do funcionamento a que se refere o artigo 29.º, n.º 4, bem como o acompanhamento pós-comercialização a que se refere o artigo 61.º. Em especial, devem permitir o registo de acontecimentos relevantes para a identificação de situações que possam: |
|
a) Dar azo a que o sistema de IA apresente um risco, na aceção do artigo 65.º, n.º 1; ou |
|
b) Dar origem a uma modificação substancial do sistema de IA. |
Alteração 297
Proposta de regulamento
Artigo 12 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2 a. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos com capacidades de registo que permitam o registo do consumo de energia, a medição ou o cálculo da utilização de recursos e o impacto ambiental do sistema de IA de risco elevado durante todas as fases do ciclo de vida do sistema. |
Alteração 298
Proposta de regulamento
Artigo 12 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Em especial, as capacidades de registo devem permitir o controlo do funcionamento do sistema de IA de risco elevado no que diz respeito à ocorrência de situações que possam dar azo a que o sistema de IA apresente um risco, na aceção do artigo 65.º, n.º 1, ou dar origem a uma modificação substancial, e facilitar o acompanhamento pós-comercialização a que se refere o artigo 61.º. |
Suprimido |
Alteração 299
Proposta de regulamento
Artigo 13 – título
|
|
Texto da Comissão |
Alteração |
Transparência e prestação de informações aos utilizadores |
Transparência e prestação de informações |
Alteração 300
Proposta de regulamento
Artigo 13 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente. Deve ser garantido um tipo e um grau adequados de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos fornecedores e utilizadores compreender razoavelmente o funcionamento do sistema. Deve ser garantida uma transparência apropriada, em conformidade com a finalidade prevista do sistema de IA, que permita cumprir as obrigações que incumbem ao fornecedor e ao utilizador por força do capítulo 3 do presente título. |
|
Transparência significa, por conseguinte, que, no momento em que o sistema de IA de risco elevado é colocado no mercado, todos os meios técnicos disponíveis em consonância com o estado da técnica geralmente reconhecido são utilizados para assegurar que os resultados do sistema de IA sejam interpretáveis pelo fornecedor e pelo utilizador. O utilizador deve poder compreender e utilizar o sistema de IA de forma adequada, sabendo, de um modo geral, como funciona o sistema de IA e quais os dados que trata, o que permite ao utilizador explicar as decisões tomadas pelo sistema de IA à pessoa afetada nos termos do artigo 68.º, alínea c). |
Alteração 301
Proposta de regulamento
Artigo 13 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização compreensíveis, num formato digital ou disponibilizado de outro modo num formato duradouro, que incluam informações concisas, corretas, claras e, na medida do possível, completas que contribuam para o funcionamento e a manutenção do sistema de IA, bem como para apoiar a tomada de decisões informadas pelos utilizadores, e que sejam razoavelmente pertinentes, acessíveis e compreensíveis para os utilizadores. |
Alteração 302
Proposta de regulamento
Artigo 13 – n.º 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. As informações a que se refere o n.º 2 devem especificar: |
3. Para alcançar os resultados mencionados no n.º 1, as informações a que se refere o n.º 2 devem especificar: |
Alteração 303
Proposta de regulamento
Artigo 13 – n.º 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A identidade e os dados de contacto do fornecedor e, se for caso disso, do seu mandatário; |
a) A identidade e os dados de contacto do fornecedor e, se for caso disso, dos seus mandatários; |
Alteração 304
Proposta de regulamento
Artigo 13 – n.º 3 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Quando sejam diferentes dos do fornecedor, a identidade e os dados de contacto da entidade que efetuou a avaliação da conformidade e, se for caso disso, do seu mandatário; |
Alteração 305
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – parte introdutória
|
|
Texto da Comissão |
Alteração |
b) As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo: |
b) As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo, se for caso disso: |
Alteração 306
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea ii)
|
|
Texto da Comissão |
Alteração |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança, |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias claramente conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança, |
Alteração 307
Proposta de regulamento
Artigo 13 - n.º 3 - alínea b) - subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança ou os direitos fundamentais, |
iii) qualquer circunstância claramente conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança, os direitos fundamentais ou o ambiente, incluindo, se for caso disso, exemplos ilustrativos dessas limitações e de cenários em que o sistema não deva ser utilizado, |
Alteração 308
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea iii-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-A) em que medida o sistema de IA pode proporcionar uma explicação para as decisões que toma; |
Alteração 309
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea v)
|
|
Texto da Comissão |
Alteração |
v) quando oportuno, especificações para os dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA; |
v) informações pertinentes sobre as ações dos utilizadores suscetíveis de afetar o desempenho do sistema, incluindo o tipo ou a qualidade dos dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA; |
Alteração 310
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) A vida útil esperada do sistema de IA de risco elevado e quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software. |
e) Quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software, ao longo da sua vida útil esperada. |
Alteração 311
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) Uma descrição dos mecanismos incluídos no sistema de IA que permita aos utilizadores recolher, armazenar e interpretar corretamente os registos, em conformidade com o artigo 12.º, n.º 1. |
Alteração 312
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) A informação deve ser transmitida, no mínimo, na língua oficial do país onde o sistema de IA é utilizado. |
Alteração 313
Proposta de regulamento
Artigo 13 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3a. A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores devem garantir um nível suficiente de literacia em matéria de IA, em consonância com o artigo 4.º-B. |
Alteração 314
Proposta de regulamento
Artigo 14 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que possam ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que sejam eficazmente supervisionados por pessoas singulares proporcionalmente aos riscos associados aos referidos sistemas. As pessoas singulares responsáveis por assegurar a supervisão humana devem ter um nível suficiente de literacia em matéria de IA, em conformidade com o artigo 4.º-B, bem como o apoio e a autoridade necessários para exercer essa função durante o período de utilização do sistema de IA e para permitir uma investigação exaustiva após um incidente. |
Alteração 315
Proposta de regulamento
Artigo 14 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança, os direitos fundamentais ou o ambiente que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo e sempre que decisões baseadas exclusivamente no tratamento automatizado por sistemas de IA produzam efeitos jurídicos ou de outro modo significativos nas pessoas ou nos grupos de pessoas em que o sistema se destina a ser utilizado. |
Alteração 316
Proposta de regulamento
Artigo 14 – n.º 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. A supervisão humana deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas: |
3. A supervisão humana deve ter em conta os riscos específicos, o nível de automatização e o contexto do sistema de IA e deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas: |
Alteração 317
Proposta de regulamento
Artigo 14 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. As medidas a que se refere o n.º 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, em função das circunstâncias: |
4. Para efeitos de aplicação dos n.os 1 a 3, o sistema de IA de risco elevado deve ser fornecido ao utilizador de forma a permitir que as pessoas singulares responsáveis pela supervisão humana, em função das circunstâncias e proporcionalmente às mesmas: |
Alteração 318
Proposta de regulamento
Artigo 14 – n.º 4 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Compreendam completamente as capacidades e limitações do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
a) Estejam cientes e compreendam de forma suficiente as capacidades e limitações pertinentes do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
Alteração 319
Proposta de regulamento
Artigo 14 – n.º 4 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar. |
e) Sejam capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar, que permita que o sistema pare num estado seguro, exceto se a interferência humana aumentar os riscos ou afetar negativamente o desempenho, tendo em conta o estado da técnica geralmente reconhecido. |
Alteração 320
Proposta de regulamento
Artigo 14 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares. |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares com a competência, a formação e a autoridade necessárias. |
Alteração 321
Proposta de regulamento
Artigo 15 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem, tendo em conta a finalidade prevista, um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de acordo com o princípio da segurança desde a conceção e por defeito. Tendo em conta a finalidade prevista, devem atingir um nível apropriado de exatidão, solidez, segurança e cibersegurança e apresentar um desempenho coerente em relação a tais aspetos durante o ciclo de vida. O cumprimento destes requisitos deve incluir a aplicação das medidas mais avançadas, em função do segmento de mercado ou do âmbito de aplicação em questão. |
Alteração 322
Proposta de regulamento
Artigo 15 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. A fim de abordar os aspetos técnicos de como medir os níveis adequados de exatidão e robustez estabelecidos no n.º 1 do presente artigo, o Serviço IA deve reunir as autoridades de metrologia e de avaliação comparativa nacionais e internacionais e fornecer orientações não vinculativas sobre a matéria, tal como previsto no artigo 56.º, n.º 2, alínea a). |
Alteração 323
Proposta de regulamento
Artigo 15 – n.º 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
1-B. Para resolver quaisquer questões emergentes no mercado interno no que diz respeito à cibersegurança, a Agência da União Europeia para a Cibersegurança (ENISA) deve envolver-se juntamente com o Comité Europeu para a Inteligência Artificial, tal como previsto no artigo 56.º, n.º 2, alínea b). |
Alteração 324
Proposta de regulamento
Artigo 15 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável. |
2. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável. A linguagem utilizada deve ser clara e não deve ser propícia a mal-entendidos ou interpretações erróneas. |
Alteração 325
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado devem ser resistentes a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Devem ser adotadas medidas técnicas e organizativas para assegurar que os sistemas de IA de risco elevado sejam tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Alteração 326
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas. |
A solidez dos sistemas de IA de risco elevado pode ser alcançada pelo fornecedor adequado com o contributo do utilizador, sempre que necessário, por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas. |
Alteração 327
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados devido a resultados usados como dados de entrada para futuras operações («circuitos de realimentação») sejam devidamente abordados por via de medidas de atenuação adequadas. |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados que influenciem dados de entrada para futuras operações («circuitos de realimentação») e a manipulação maliciosa dos dados de entrada utilizados na aprendizagem durante o funcionamento sejam devidamente abordados por via de medidas de atenuação adequadas. |
Alteração 328
Proposta de regulamento
Artigo 15 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização ou desempenho explorando as vulnerabilidades do sistema. |
Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização, comportamento, resultados ou desempenho explorando as vulnerabilidades do sistema. |
Alteração 329
Proposta de regulamento
Artigo 15 – n.º 4 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos»), ou falhas do modelo. |
As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir, detetar, responder, resolver e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), ou componentes pré-treinados utilizados no treino («contaminação de modelos»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos» ou «evasão de modelos»), ataques de confidencialidade ou falhas do modelo, que podem conduzir a tomadas de decisão prejudiciais. |
Alteração 330
Proposta de regulamento
Título III – Capítulo 3 – título
|
|
Texto da Comissão |
Alteração |
OBRIGAÇÕES DOS FORNECEDORES E UTILIZADORES DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO E DE OUTRAS PARTES |
OBRIGAÇÕES DOS FORNECEDORES E RESPONSÁVEIS PELA IMPLANTAÇÃO DE SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO E DE OUTRAS PARTES |
Alteração 331
Proposta de regulamento
Artigo 16 – título
|
|
Texto da Comissão |
Alteração |
Obrigações dos fornecedores de sistemas de inteligência artificial de risco elevado |
Obrigações dos fornecedores e responsáveis pela implantação de sistemas de inteligência artificial de risco elevado e de outras partes |
Alteração 332
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título; |
a) Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título antes de os colocarem no mercado ou colocarem em serviço; |
Alteração 333
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Indicar o seu nome, nome comercial registado ou marca registada, o seu endereço e dados de contacto no sistema de IA de risco elevado, ou, se tal não for possível, na documentação que o acompanha, conforme adequado; |
Alteração 334
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-B) Assegurar que as pessoas singulares que estão encarregadas da supervisão humana dos sistemas de IA de risco elevado sejam especificamente consciencializadas do risco de enviesamento da automatização ou da confirmação; |
Alteração 335
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-C) Indicar especificações para os dados de entrada, ou quaisquer outras informações pertinentes em termos dos conjuntos de dados usados, incluindo a sua limitação e pressupostos, tendo em conta a finalidade prevista e as utilizações indevidas previsíveis e razoavelmente previsíveis do sistema de IA; |
Alteração 336
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Elaborar a documentação técnica do sistema de IA de risco elevado; |
c) Elaborar e manter a documentação técnica do sistema de IA de risco elevado mencionada no artigo 11.º; |
Alteração 337
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que fornecem; |
d) Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado, que são necessários para assegurar e demonstrar a conformidade com o presente regulamento, nos termos do artigo 20.º; |
Alteração 338
Proposta de regulamento
Artigo 16 – n.º 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, antes da colocação no mercado ou da colocação em serviço; |
e) Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, antes da colocação no mercado ou da colocação em serviço, nos termos do artigo 43.º; |
Alteração 339
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) Elaborar uma declaração de conformidade UE, nos termos do artigo 48.º; |
Alteração 340
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) Apor a marcação CE no sistema de IA de risco elevado para indicar a conformidade com o presente regulamento, nos termos do artigo 49.º; |
Alteração 341
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Adotar as medidas corretivas necessárias, se o sistema de IA de risco elevado não estiver em conformidade com os requisitos estabelecidos no capítulo 2 do presente título; |
g) Adotar as medidas corretivas necessárias a que se refere o artigo 21.º e fornecer informações a esse respeito; |
Alteração 342
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea h)
|
|
Texto da Comissão |
Alteração |
h) Informar as autoridades nacionais competentes dos Estados-Membros nos quais disponibilizaram o sistema de IA ou o colocaram em serviço e, se for caso disso, o organismo notificado sobre a não conformidade e quaisquer medidas corretivas tomadas; |
Suprimido |
Alteração 343
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea i)
|
|
Texto da Comissão |
Alteração |
i) Apor a marcação CE nos sistemas de IA de risco elevado para indicar a conformidade com o presente regulamento de acordo com o artigo 49.º; |
Suprimido |
Alteração 344
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea j)
|
|
Texto da Comissão |
Alteração |
j) Mediante pedido de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. |
j) Mediante pedido fundamentado de uma autoridade nacional de controlo, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. |
Alteração 345
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea j-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
j-A) Assegurar que o sistema de IA de risco elevado cumpre os requisitos de acessibilidade. |
Alteração 346
Proposta de regulamento
Artigo 17 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores de sistemas de IA de risco elevado devem criar um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos e instruções escritas, e deve incluir, no mínimo, os seguintes aspetos: |
1. Os fornecedores de sistemas de IA de risco elevado devem possuir um sistema de gestão da qualidade que assegure a conformidade com o presente regulamento. Esse sistema deve estar documentado de uma forma sistemática e ordenada, sob a forma de políticas, procedimentos ou instruções escritas, e pode ser integrado num sistema de gestão da qualidade existente ao abrigo dos atos legislativos setoriais da União: Deve incluir, no mínimo, os seguintes aspetos: |
Alteração 347
Proposta de regulamento
Artigo 17 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Uma estratégia para o cumprimento da regulamentação, incluindo a observância de procedimentos de avaliação da conformidade e de procedimentos de gestão de modificações do sistema de IA de risco elevado; |
Suprimido |
Alteração 348
Proposta de regulamento
Artigo 17 – n.º 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra, os meios a usar para assegurar que o sistema de IA de risco elevado cumpra os requisitos estabelecidos no capítulo 2 do presente título; |
e) Especificações técnicas, incluindo normas, a aplicar e, se as normas harmonizadas em causa não forem aplicadas na íntegra ou não abrangerem todos os requisitos pertinentes, os meios a usar para assegurar que o sistema de IA de risco elevado cumpra os requisitos estabelecidos no capítulo 2 do presente título; |
Alteração 349
Proposta de regulamento
Artigo 17 – n.º 1 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Sistemas e procedimentos de gestão de dados, incluindo recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado; |
f) Sistemas e procedimentos de gestão de dados, incluindo aquisição de dados, recolha de dados, análise de dados, rotulagem de dados, armazenamento de dados, filtragem de dados, prospeção de dados, agregação de dados, conservação de dados e qualquer outra operação relativa aos dados que seja realizada antes e para efeitos da colocação no mercado ou colocação em serviço de sistemas de IA de risco elevado; |
Alteração 350
Proposta de regulamento
Artigo 17 – n.º 1 – alínea j)
|
|
Texto da Comissão |
Alteração |
j) A gestão da comunicação com autoridades nacionais competentes, autoridades competentes, incluindo as setoriais, disponibilizando ou apoiando o acesso a dados, organismos notificados, outros operadores, clientes ou outras partes interessadas; |
j) A gestão da comunicação com autoridades competentes pertinentes, incluindo as setoriais; |
Alteração 351
Proposta de regulamento
Artigo 17 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A aplicação dos aspetos referidos no n.º 1 deve ser proporcionada à dimensão da organização do fornecedor. |
2. A aplicação dos aspetos referidos no n.º 1 deve ser proporcionada à dimensão da organização do fornecedor. Os fornecedores devem, em qualquer caso, respeitar o grau de rigor e o nível de proteção exigidos para garantir a conformidade dos seus sistemas de IA com o presente regulamento. |
Alteração 352
Proposta de regulamento
Artigo 18 – título
|
|
Texto da Comissão |
Alteração |
Obrigação de elaborar documentação técnica |
Suprimido |
Alteração 353
Proposta de regulamento
Artigo 18 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores de sistemas de IA de risco elevado devem elaborar a documentação técnica a que se refere o artigo 11.º de acordo com o anexo IV. |
Suprimido |
Alteração 354
Proposta de regulamento
Artigo 18 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter a documentação técnica como parte da documentação relativa a sistemas, processos e mecanismos de governação interna elaborada nos termos do artigo 74.º da referida diretiva. |
Suprimido |
Alteração 355
Proposta de regulamento
Artigo 19
|
|
Texto da Comissão |
Alteração |
Artigo 19 |
Suprimido |
Avaliação da conformidade |
|
1. Os fornecedores de sistemas de IA de risco elevado devem assegurar que os sistemas que fornecem são sujeitos a um procedimento de avaliação da conformidade de acordo com o artigo 43.º, antes de serem colocados no mercado ou colocados em serviço. Assim que a conformidade dos sistemas de IA com os requisitos estabelecidos no capítulo 2 do presente título tiver sido demonstrada na sequência de uma avaliação da conformidade, os fornecedores devem elaborar uma declaração de conformidade UE de acordo com o artigo 48.º e apor a marcação de conformidade CE de acordo com o artigo 49.º. |
|
2. Em relação aos sistemas de IA de risco elevado referidos no anexo III, ponto 5, alínea b), colocados no mercado ou colocados em serviço por fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, a avaliação da conformidade deve ser realizada no âmbito do procedimento a que se referem os artigos 97.º a 101.º da mesma diretiva. |
|
Alteração 356
Proposta de regulamento
Artigo 20 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente pelos respetivos sistemas de IA de risco elevado, desde que esses registos estejam sob o seu controlo por força de uma disposição contratual com o utilizador ou de uma disposição legal. Os registos devem ser mantidos por um período adequado em função da finalidade prevista do sistema de IA de risco elevado e das obrigações legais aplicáveis nos termos da legislação da União ou nacional. |
1. Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Sem prejuízo da legislação da União ou nacional aplicável, os registos devem ser mantidos por um período mínimo de 6 meses. O período de conservação deve estar em conformidade com as normas do setor e ser adequado à finalidade prevista do sistema de IA de risco elevado. |
Alteração 357
Proposta de regulamento
Artigo 21 – n.º 1
|
|
Texto da Comissão |
Alteração |
Os fornecedores de sistemas de IA de risco elevado que considerem ou tenham motivos para crer que um sistema de IA de risco elevado que colocaram no mercado ou colocaram em serviço não está em conformidade com o presente regulamento devem tomar imediatamente as medidas corretivas necessárias para repor a conformidade do sistema em questão ou proceder à retirada ou recolha do mesmo, consoante o caso. Devem igualmente informar do facto os distribuidores do sistema de IA de risco elevado em questão e, se for caso disso, o mandatário e os importadores. |
Os fornecedores de sistemas de IA de risco elevado que considerem ou tenham motivos para crer que um sistema de IA de risco elevado que colocaram no mercado ou colocaram em serviço não está em conformidade com o presente regulamento devem tomar imediatamente as medidas corretivas necessárias para repor a conformidade do sistema em questão ou proceder à retirada ou recolha do mesmo, consoante o caso. |
|
Nos casos referidos no n.º 1, os fornecedores devem informar imediatamente: |
|
a. Os distribuidores; |
|
b. Os importadores; |
|
c. As autoridades nacionais competentes dos Estados-Membros em que disponibilizaram ou colocaram em serviço o sistema de IA; e |
|
d. Sempre que possível, o responsável pela implantação. |
Alteração 358
Proposta de regulamento
Artigo 21 –parágrafo 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Os fornecedores devem também informar o mandatário, caso este tenha sido nomeado em conformidade com o artigo 25.º, e o organismo notificado se o sistema de IA de risco elevado tiver de ser submetido a uma avaliação da conformidade por terceiros nos termos do artigo 43.º. Se for caso disso, devem também investigar as causas em colaboração com o responsável pela implantação. |
Alteração 359
Proposta de regulamento
Artigo 22 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, e esse risco for do conhecimento do fornecedor do sistema, este último deve informar imediatamente as autoridades nacionais competentes dos Estados-Membros nos quais disponibilizou o sistema e, se for caso disso, o organismo notificado que emitiu um certificado para o sistema de IA de risco elevado, em especial sobre a não conformidade e quaisquer as medidas corretivas tomadas. |
Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, e o fornecedor do sistema tomar conhecimento desse risco, este último deve informar imediatamente as autoridades nacionais de controlo dos Estados-Membros nos quais disponibilizou o sistema e, se for caso disso, o organismo notificado que emitiu um certificado para o sistema de IA de risco elevado, em especial sobre a natureza da não conformidade e quaisquer medidas corretivas pertinentes tomadas. |
Alteração 360
Proposta de regulamento
Artigo 22 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Nos casos referidos no n.º 1, os fornecedores do sistema de IA de risco elevado devem informar imediatamente: |
|
a) Os distribuidores; |
|
b) Os importadores; |
|
c) As autoridades nacionais competentes dos Estados-Membros em que disponibilizaram ou colocaram em serviço o sistema de IA; e |
|
d) Sempre que possível, os responsáveis pela implantação. |
Alteração 361
Proposta de regulamento
Artigo 22 – parágrafo 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Os fornecedores devem igualmente informar o mandatário, caso este tenha sido nomeado em conformidade com o artigo 25.º. |
Alteração 362
Proposta de regulamento
Artigo 23 – título
|
|
Texto da Comissão |
Alteração |
Cooperação com as autoridades competentes |
Cooperação com as autoridades competentes, o Gabinete e a Comissão |
Alteração 363
Proposta de regulamento
Artigo 23 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os fornecedores de sistemas de IA de risco elevado devem, mediante pedido de uma autoridade nacional competente, prestar a essa autoridade todas as informações e documentação necessárias para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua oficial da União determinada pelo Estado-Membro em questão. Mediante pedido fundamentado de uma autoridade nacional competente, os fornecedores devem igualmente conceder a essa autoridade o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo por força de uma disposição contratual com o utilizador ou de uma disposição legal. |
Os fornecedores e, se for caso disso, os responsáveis pela implantação de sistemas de IA de risco elevado devem, mediante pedido de uma autoridade nacional competente ou, se for caso disso, do Gabinete ou da Comissão, prestar-lhes todas as informações e documentação necessárias para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua oficial da União determinada pelo Estado-Membro em questão. |
Alteração 364
Proposta de regulamento
Artigo 23 – parágrafo 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Mediante um pedido fundamentado de uma autoridade nacional competente ou, se for caso disso, da Comissão, os fornecedores e, se for caso disso, os responsáveis pela implantação devem igualmente conceder à autoridade nacional competente requerente ou à Comissão, consoante o caso, acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. |
Alteração 365
Proposta de regulamento
Artigo 23 – parágrafo 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Todas as informações obtidas por uma autoridade nacional competente ou pela Comissão nos termos das disposições do presente artigo devem ser consideradas um segredo comercial e devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 366
Proposta de regulamento
Artigo 25 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Antes de disponibilizarem os seus sistemas no mercado da União, caso não seja possível identificar um importador, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União. |
1. Antes de disponibilizarem os seus sistemas no mercado da União, os fornecedores estabelecidos fora da União devem, através de mandato escrito, designar um mandatário estabelecido na União. |
Alteração 367
Proposta de regulamento
Artigo 25 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. O mandatário deve residir ou estar estabelecido num dos Estados-Membros onde decorrem as atividades previstas no artigo 2.º, n.º 1, alínea c-B). |
Alteração 368
Proposta de regulamento
Artigo 25 – n.º 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
1-B. O fornecedor deve dotar o seu mandatário dos poderes e recursos necessários para cumprir as funções que lhe incumbem por força do presente regulamento. |
Alteração 369
Proposta de regulamento
Artigo 25 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. O mandatário deve praticar os atos definidos no mandato conferido pelo fornecedor. O mandato deve habilitar o mandatário a exercer as seguintes funções: |
2. O mandatário deve praticar os atos definidos no mandato conferido pelo fornecedor. A pedido, o mandatário deve fornecer uma cópia do mandato às autoridades de fiscalização do mercado, numa das línguas oficiais da instituição da União determinada pela autoridade nacional competente. Para efeitos do presente regulamento, o mandato deve habilitar o mandatário a exercer as seguintes funções: |
Alteração 370
Proposta de regulamento
Artigo 25 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Manter uma cópia da declaração de conformidade UE e da documentação técnica à disposição das autoridades nacionais competentes e das autoridades nacionais a que se refere o artigo 63.º, n.º 7; |
a) Garantir que a declaração de conformidade UE e a documentação técnica foram elaboradas e que o fornecedor seguiu um procedimento de avaliação da conformidade adequado; |
Alteração 371
Proposta de regulamento
Artigo 25 – n.º 2 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Manter à disposição das autoridades nacionais competentes e das autoridades nacionais mencionadas no artigo 63.º, n.º 7, uma cópia da declaração de conformidade UE, da documentação técnica e, se for caso disso, do certificado emitido pelo organismo notificado; |
Alteração 372
Proposta de regulamento
Artigo 25 – n.º 2 - alínea b)
|
|
Texto da Comissão |
Alteração |
b) Prestar a uma autoridade nacional competente, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor por força de uma disposição contratual com o utilizador ou de uma disposição legal; |
b) Prestar a uma autoridade nacional competente, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor; |
Alteração 373
Proposta de regulamento
Artigo 25 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Cooperar com as autoridades nacionais competentes, mediante pedido fundamentado, em qualquer ação que estas empreendam em relação ao sistema de IA de risco elevado. |
c) Cooperar com as autoridades nacionais de controlo, mediante pedido fundamentado, em qualquer ação que a autoridade empreenda para reduzir e atenuar os riscos colocados pelo sistema de IA de risco elevado abrangido; |
Alteração 374
Proposta de regulamento
Artigo 25 – n.º 2 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Se for caso disso, respeitar as obrigações de registo a que se refere o artigo 51.º ou, se o registo for efetuado pelo próprio fornecedor, garantir que as informações a que se refere o anexo VIII, ponto 3, estão corretas. |
Alteração 375
Proposta de regulamento
Artigo 25 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. O mandatário deve ser mandatado para ser contactado, além do fornecedor ou em vez deste, nomeadamente pela autoridade nacional de controlo ou pelas autoridades nacionais competentes, sobre todas as questões relacionadas com a garantia da conformidade com o presente regulamento. |
Alteração 376
Proposta de regulamento
Artigo 25 – n.º 2-B (novo)
|
|
Texto da Comissão |
Alteração |
|
2-B. O mandatário deve cessar o mandato se considerar ou tiver motivos para crer que o fornecedor atua contrariamente às suas obrigações previstas no presente regulamento. Nesse caso, deve informar imediatamente a autoridade nacional de controlo do Estado-Membro no qual está estabelecido, bem como, se for caso disso, o organismo notificado pertinente, da cessação do mandato e da respetiva justificação. |
Alteração 377
Proposta de regulamento
Artigo 26 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores desse sistema devem assegurar-se de que: |
1. Antes de colocarem um sistema de IA de risco elevado no mercado, os importadores desse sistema devem assegurar-se de que esse sistema está em conformidade com o presente regulamento, garantindo que: |
Alteração 378
Proposta de regulamento
Artigo 26 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) O fornecedor desse sistema de IA realizou o procedimento de avaliação da conformidade adequado; |
a) O fornecedor desse sistema de IA realizou o procedimento de avaliação da conformidade pertinente mencionado no artigo 43.º; |
Alteração 379
Proposta de regulamento
Artigo 26 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) O fornecedor elaborou a documentação técnica em conformidade com o anexo IV; |
b) O fornecedor elaborou a documentação técnica em conformidade com o artigo 11.º e o anexo IV; |
Alteração 380
Proposta de regulamento
Artigo 26 – n.º 1 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) S for caso disso, o fornecedor designou um mandatário em conformidade com o artigo 25.º, n.º 1. |
Alteração 381
Proposta de regulamento
Artigo 26 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Se um importador considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, não pode colocar esse sistema de IA no mercado enquanto o mesmo não for tornado conforme. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, o importador deve informar desse facto o fornecedor do sistema de IA e as autoridades de fiscalização do mercado. |
2. Se um importador considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com o presente regulamento, ou é falsificado ou acompanhado por documentação falsificada, o importador não pode colocar esse sistema de IA no mercado enquanto o mesmo não for tornado conforme. Se o sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, o importador deve informar desse facto o fornecedor do sistema de IA e as autoridades de fiscalização do mercado. |
Alteração 382
Proposta de regulamento
Artigo 26 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço de contacto no sistema de IA de risco elevado, ou, se tal não for possível, na respetiva embalagem ou na documentação que o acompanha, conforme aplicável. |
3. Os importadores devem indicar o seu nome, nome comercial registado ou marca registada e endereço de contacto no sistema de IA de risco elevado e na respetiva embalagem ou na documentação que o acompanha, quando aplicável. |
Alteração 383
Proposta de regulamento
Artigo 26 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Os importadores devem prestar às autoridades nacionais competentes, mediante pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua que possa ser facilmente compreendida pela autoridade nacional competente em causa, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor por força de uma disposição contratual com o utilizador ou de uma disposição legal. Devem igualmente cooperar com essas autoridades nacionais competentes em qualquer ação que estas empreendam em relação a esse sistema. |
5. Os importadores devem prestar às autoridades nacionais competentes, mediante um pedido fundamentado, todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, numa língua que possa ser facilmente compreendida por aquelas, incluindo o acesso aos registos gerados automaticamente pelo sistema de IA de risco elevado, desde que esses registos se encontrem sob o controlo do fornecedor nos termos do artigo 20.º. |
Alteração 384
Proposta de regulamento
Artigo 26 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. Os importadores devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades empreendam para reduzir e atenuar os riscos colocados pelo sistema de IA de risco elevado. |
Alteração 385
Proposta de regulamento
Artigo 27 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação de conformidade CE exigida, se está acompanhado da documentação e das instruções de utilização necessárias e se o fornecedor e o importador do sistema, consoante o caso, cumpriram as obrigações estabelecidas no presente regulamento. |
1. Antes de disponibilizarem um sistema de IA de risco elevado no mercado, os distribuidores devem verificar se o sistema de IA de risco elevado ostenta a marcação de conformidade CE exigida, se está acompanhado da documentação e das instruções de utilização necessárias e se o fornecedor e o importador do sistema, consoante o caso, cumpriram as suas obrigações estabelecidas no presente regulamento, nos artigos 16.º e 26.º respetivamente. |
Alteração 386
Proposta de regulamento
Artigo 27 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Se um distribuidor considerar ou tiver motivos para crer que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto o mesmo não for tornado conforme com os referidos requisitos. Além disso, se o sistema apresentar um risco na aceção do artigo 65.º, n.º 1, o distribuidor deve informar desse facto o fornecedor ou o importador do sistema, conforme o caso. |
2. Se um distribuidor considerar ou tiver motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título, não pode disponibilizar esse sistema de IA de risco elevado no mercado enquanto o mesmo não for tornado conforme aos referidos requisitos. Além disso, se o sistema apresentar um risco na aceção do artigo 65.º, n.º 1, o distribuidor deve informar desse facto o fornecedor ou o importador do sistema e a autoridade nacional competente pertinente, conforme o caso. |
Alteração 387
Proposta de regulamento
Artigo 27 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Um distribuidor que considere ou tenha motivos para crer que um sistema de IA de risco elevado que disponibilizou no mercado não em conformidade com os requisitos estabelecidos no capítulo 2 do presente título deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o fornecedor, o importador ou qualquer operador envolvido, consoante o caso, toma essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, o distribuidor deve informar imediatamente desse facto as autoridades nacionais competentes dos Estados-Membros em que disponibilizou o produto, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas. |
4. Um distribuidor que considere ou tenha motivos para crer, com base nas informações que possui, que um sistema de IA de risco elevado que disponibilizou no mercado não está em conformidade com os requisitos estabelecidos no capítulo 2 do presente título deve tomar as medidas corretivas necessárias para repor a conformidade desse sistema com os referidos requisitos, proceder à retirada ou recolha do mesmo ou assegurar que o fornecedor, o importador ou qualquer operador envolvido, consoante o caso, toma essas medidas corretivas. Se um sistema de IA de risco elevado apresentar um risco na aceção do artigo 65.º, n.º 1, o distribuidor deve informar imediatamente desse facto o fornecedor ou o importador do sistema e as autoridades nacionais competentes dos Estados-Membros em que disponibilizou o produto, apresentando dados, sobretudo no que se refere à não conformidade e às medidas corretivas tomadas. |
Alteração 388
Proposta de regulamento
Artigo 27 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Mediante pedido fundamentado de uma autoridade nacional competente, os distribuidores de sistemas de IA de risco elevado devem prestar a essa autoridade todas as informações e documentação necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. Os distribuidores devem igualmente cooperar com essa autoridade nacional competente em qualquer ação que esta empreenda. |
5. Mediante pedido fundamentado de uma autoridade nacional competente, os distribuidores de sistemas de IA de risco elevado devem prestar a essa autoridade todas as informações e documentação em sua posse ou à sua disposição, em conformidade com as obrigações dos distribuidores previstas no n.º 1, que sejam necessárias para demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. |
Alteração 389
Proposta de regulamento
Artigo 27 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. Os distribuidores devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades empreendam para reduzir ou atenuar os riscos colocados pelo sistema de IA de risco elevado. |
Alteração 390
Proposta de regulamento
Artigo 28 – título
|
|
Texto da Comissão |
Alteração |
Obrigações dos distribuidores, importadores, utilizadores e outros terceiros |
Responsabilidades ao longo da cadeia de valor da IA dos fornecedores, distribuidores, importadores, responsáveis pela implantação ou outros terceiros |
Alteração 391
Proposta de regulamento
Artigo 28 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Qualquer distribuidor, importador, utilizador ou outro terceiro será considerado um fornecedor para efeitos do presente regulamento e ficará sujeito às obrigações do fornecedor estabelecidas no artigo 16.º em qualquer uma das seguintes circunstâncias: |
1. Qualquer distribuidor, importador, responsável pela implantação ou outro terceiro será considerado um fornecedor de um sistema de IA de risco elevado para efeitos do presente regulamento e ficará sujeito às obrigações do fornecedor estabelecidas no artigo 16.º em qualquer uma das seguintes circunstâncias: |
Alteração 392
Proposta de regulamento
Artigo 28 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
(a) Se coloca no mercado ou colocar em serviço um sistema de IA de risco elevado sob o seu nome ou marca; |
(a) Se colocar o seu nome ou a sua marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço; |
Alteração 393
Proposta de regulamento
Artigo 28 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Se modificar a finalidade prevista de um sistema de IA de risco elevado já colocado no mercado ou colocado em serviço; |
b) Se introduzir uma alteração substancial num sistema de IA de risco elevado que já tenha sido colocado no mercado ou que já tenha sido colocado em serviço e de uma forma que continua a ser um sistema de IA de risco elevado, em conformidade com o artigo 6.º; |
Alteração 394
Proposta de regulamento
Artigo 28.º – n.º 1 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) Se introduzir uma alteração substancial num sistema de IA, incluindo um sistema de IA de finalidade geral, que não foi classificado como de risco elevado e que já foi colocado no mercado ou colocado em serviço, de tal modo que o sistema de IA se torna um sistema de IA de risco elevado, em conformidade com o artigo 6.º; |
Alteração 395
Proposta de regulamento
Artigo 28 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Sempre que se verificarem as circunstâncias a que se refere o n.º 1, alíneas b) ou c),o fornecedor, o importador ou o utilizador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA de risco elevado deixará de ser considerado um fornecedor para efeitos do presente regulamento. |
2. Sempre que se verificarem as circunstâncias a que se refere o n.º 1, alíneas a) a b-A),o fornecedor, o importador ou o utilizador que inicialmente colocou no mercado ou colocou em serviço o sistema de IA de risco elevado deixará de ser considerado um fornecedor desse sistema específico de IA para efeitos do presente regulamento. Este anterior fornecedor deve fornecer ao novo fornecedor a documentação técnica e todas as outras capacidades de informação pertinentes e razoavelmente esperadas do sistema de IA, acesso técnico ou outra assistência com base no estado da técnica geralmente reconhecido, que sejam necessários para o cumprimento das obrigações estabelecidas no presente regulamento. |
|
O presente número é igualmente aplicável aos fornecedores de modelos de base, tal como definidos no artigo 3.º, quando o modelo de base estiver diretamente integrado num sistema de IA de risco elevado. |
Alteração 396
Proposta de regulamento
Artigo 28 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. O fornecedor de um sistema de IA de risco elevado e o terceiro que fornece ferramentas, serviços, componentes ou processos que são utilizados ou integrados no sistema de IA de risco elevado devem, mediante acordo escrito, especificar as informações, as capacidades, o acesso técnico e/ou outra assistência, com base no estado da técnica geralmente reconhecido, que o terceiro é obrigado a fornecer, a fim de permitir que o fornecedor do sistema de IA de risco elevado cumpra plenamente as obrigações decorrentes do presente regulamento. |
|
A Comissão deve desenvolver e recomendar modelos de cláusulas contratuais não vinculativas entre fornecedores de sistemas de IA de risco elevado e terceiros que forneçam ferramentas, serviços, componentes ou processos que são utilizados ou integrados em sistemas de IA de risco elevado, a fim de ajudar ambas as partes a elaborar e negociar contratos com direitos e obrigações contratuais equilibrados e coerentes com o nível de controlo de cada parte. Ao elaborar modelos de cláusulas contratuais não vinculativas, a Comissão deve ter em conta eventuais requisitos contratuais aplicáveis em setores ou casos comerciais específicos. As cláusulas contratuais não vinculativas devem ser publicadas e disponibilizadas gratuitamente num formato eletrónico facilmente utilizável no sítio Web do Serviço IA. |
Alteração 397
Proposta de regulamento
Artigo 28 – n.º 2-B (novo)
|
|
Texto da Comissão |
Alteração |
|
2-B. Para efeitos do presente artigo, os segredos comerciais devem ser preservados e só podem ser divulgados se forem tomadas antecipadamente todas as medidas específicas necessárias nos termos da Diretiva (UE) 2016/943 para preservar a sua confidencialidade, em especial no que diz respeito a terceiros. Sempre que necessário, podem ser acordadas disposições técnicas e organizativas adequadas para proteger os direitos de propriedade intelectual ou os segredos comerciais. |
Alteração 398
Proposta de regulamento
Artigo 28-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 28.º-A |
|
Cláusulas contratuais abusivas impostas unilateralmente a uma PME ou a uma empresa em fase de arranque |
|
1. Uma cláusula contratual relativa ao fornecimento de ferramentas, serviços, componentes ou processos que são utilizados ou integrados num sistema de IA de risco elevado ou as medidas corretivas para o incumprimento ou a cessação de obrigações conexas impostas unilateralmente por uma empresa a uma PME ou a uma empresa em fase de arranque não é vinculativa para esta última se for abusiva. |
|
2. Uma cláusula contratual não deve ser considerada abusiva quando decorre da legislação da União aplicável. |
|
3. Uma cláusula contratual é abusiva se for de natureza tal que prejudique objetivamente a capacidade da parte a quem a cláusula foi imposta unilateralmente de proteger o seu interesse comercial legítimo na informação em causa ou a sua utilização se desvie manifestamente das boas práticas comerciais no fornecimento de ferramentas, serviços, componentes ou processos que são utilizados ou integrados num sistema de IA de risco elevado, contrariamente à boa-fé e à negociação justa, ou crie um desequilíbrio significativo entre os direitos e as obrigações das partes no contrato. Uma cláusula contratual é igualmente abusiva se tiver por efeito transferir as sanções a que se refere o artigo 71.º ou os custos de contencioso associados entre as partes no contrato, tal como referido no artigo 71.º, n.º 8. |
|
4. Para efeitos do presente artigo, uma cláusula contratual é considerada abusiva se tiver por objeto ou efeito: |
|
a) Excluir ou limitar a responsabilidade da parte que impôs unilateralmente a cláusula por atos intencionais ou negligência grosseira; |
|
b) Excluir as vias de recurso à disposição da parte à qual a cláusula foi imposta unilateralmente em caso de incumprimento de obrigações contratuais ou a responsabilidade da parte que impôs unilateralmente a cláusula em caso de uma violação dessas obrigações; |
|
c) Conferir à parte que impôs unilateralmente a cláusula o direito exclusivo de determinar se a documentação técnica e a informação facultadas estão em conformidade com o contrato ou de interpretar qualquer cláusula do contrato. |
|
5. Considera-se que uma cláusula contratual é imposta unilateralmente, na aceção do presente artigo, se tiver sido apresentada por uma parte contratante e a outra parte contratante não tiver podido influenciar o seu teor, apesar de ter tentado negociá-la. Recai sobre a parte contratante que apresentou uma cláusula contratual o ónus da prova de que essa cláusula não foi imposta unilateralmente. |
|
6. Caso a cláusula contratual abusiva seja dissociável das restantes cláusulas, estas últimas continuam a ser vinculativas. A parte que apresentou a cláusula contestada não pode alegar que esta é abusiva. |
|
7. O presente artigo é aplicável a todos os novos contratos que tenham entrado em vigor após... [data de entrada em vigor do presente regulamento]. As empresas devem rever as obrigações contratuais existentes que estejam sujeitas ao presente regulamento até... [três anos após a data de entrada em vigor do presente regulamento]. |
|
8. Tendo em conta a rapidez com que surgem inovações nos mercados, a Comissão deve rever com regularidade a lista de cláusulas contratuais abusivas nos termos do artigo 28.º-A e atualizá-la à luz das novas práticas comerciais, se for caso disso. |
Alteração 399
Proposta de regulamento
Artigo 28-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 28.º-B |
|
Obrigações do fornecedor de um modelo de base |
|
1. Antes de o disponibilizar no mercado ou de o colocar em serviço, um fornecedor de um modelo de base deve assegurar a sua conformidade com os requisitos estabelecidos no presente artigo, independentemente de ser fornecido como modelo autónomo ou incorporado num sistema de IA ou num produto, ou fornecido ao abrigo de licenças de fonte aberta e gratuita, como um serviço, bem como de outros canais de distribuição. |
|
2. Para efeitos do n.º 1, o fornecedor de um modelo de base deve: |
|
a) Demonstrar, através de uma conceção, um ensaio e uma análise adequados, a identificação, a redução e a atenuação dos riscos razoavelmente previsíveis para a saúde, a segurança, os direitos fundamentais, o ambiente, a democracia e o Estado de direito, antes e durante o desenvolvimento, através de métodos adequados, como a participação de peritos independentes, bem como a documentação dos riscos não atenuáveis remanescentes após o desenvolvimento; |
|
b) Tratar e incorporar apenas conjuntos de dados sujeitos a medidas adequadas de governação de dados para modelos de base, em especial medidas para examinar a adequação das fontes de dados e eventuais enviesamentos e atenuação adequada; |
|
c) Conceber e desenvolver o modelo de base para alcançar, ao longo do seu ciclo de vida, níveis adequados de desempenho, previsibilidade, interpretabilidade, corrigibilidade, segurança e cibersegurança, avaliados através de métodos adequados, como a avaliação do modelo, com a participação de peritos independentes, análises documentadas e testes exaustivos durante a conceptualização, a conceção e o desenvolvimento; |
|
d) Conceber e desenvolver o modelo de base, utilizando as normas aplicáveis para reduzir a utilização de energia, a utilização de recursos e os resíduos, bem como para aumentar a eficiência energética e a eficiência global do sistema, sem prejuízo da legislação da União e nacional aplicável. Esta obrigação não é aplicável antes da publicação das normas referidas no artigo 40.º. Os modelos de base devem ser concebidos com capacidades que permitam a medição e o registo do consumo de energia e recursos, bem como, se tecnicamente viável, de outros impactos ambientais que a implantação e a utilização dos sistemas possam ter ao longo de todo o seu ciclo de vida. |
|
e) Elaborar documentação técnica exaustiva e instruções de utilização inteligíveis, a fim de permitir que os fornecedores a jusante cumpram as obrigações que lhes incumbem por força dos artigos 16.º e 28.º , n.º 1; |
|
f) Criar um sistema de gestão da qualidade para garantir e documentar o cumprimento do presente artigo, com a possibilidade de efetuar experiências para cumprimento deste requisito; |
|
g) Registar esse modelo de base na base de dados da UE referida no artigo 60.º, em conformidade com as instruções descritas no anexo VIII, ponto C. |
|
Ao cumprir estes requisitos, deve ser tido em conta o estado da técnica geralmente reconhecido, nomeadamente conforme refletido em normas harmonizadas ou especificações comuns pertinentes, bem como os mais recentes métodos de avaliação e medição, refletidos, em especial, nas orientações e capacidades de avaliação comparativa referidas no artigo 58.º-A; |
|
3. Os fornecedores de modelos de base devem manter a documentação técnica referida no n.º 2, alínea e), à disposição das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço dos seus modelos de base; |
|
4. Os fornecedores de modelos de base utilizados em sistemas de IA especificamente concebidos para gerar, com diferentes níveis de autonomia, conteúdos como texto complexo, imagens, áudio ou vídeo («IA generativa») e os fornecedores que se especializam em transformar um modelo de base num sistema de IA generativa devem, além disso: |
|
a) Cumprir as obrigações de transparência previstas no artigo 52.º, n.º 1; |
|
b) Treinar e, se for caso disso, conceber e desenvolver o modelo de base de forma a assegurar salvaguardas adequadas contra a geração de conteúdos em violação da legislação da União, em consonância com o estado da técnica geralmente reconhecido e sem prejuízo dos direitos fundamentais, incluindo a liberdade de expressão; |
|
c) Sem prejuízo da legislação da União ou nacional em matéria de direitos de autor, documentar e disponibilizar ao público um resumo suficientemente pormenorizado da utilização dos dados de treino protegidos pela legislação em matéria de direitos de autor. |
Alteração 400
Proposta de regulamento
Artigo 29 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os utilizadores de sistemas de IA de risco elevado devem utilizá-los de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.os 2 e 5. |
1. Os responsáveis pela implantação de sistemas de IA de risco elevado devem tomar medidas técnicas e organizativas adequadas para garantir que utilizam estes sistemas de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.os 2 e 5 do presente artigo. |
Alteração 401
Proposta de regulamento
Artigo 29 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. Na medida em que os responsáveis pela implantação exercem controlo sobre o sistema de IA de risco elevado, devem: |
|
i) Implementar a supervisão humana de acordo com os requisitos estabelecidos no presente regulamento; |
|
ii) Garantir que as pessoas singulares a quem é confiada a supervisão humana dos sistemas de IA de risco elevado sejam competentes, devidamente qualificadas e formadas, e disponham dos recursos necessários para assegurar a supervisão eficaz do sistema de IA, em conformidade com o artigo 14.º; |
|
iii) Garantir que as medidas de solidez e cibersegurança pertinentes e adequadas são regularmente monitorizadas quanto à sua eficácia e que são regularmente ajustadas ou atualizadas. |
Alteração 402
Proposta de regulamento
Artigo 29 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As obrigações previstas no n.º 1 não excluem outras obrigações do utilizador previstas na legislação da União ou nacional nem prejudicam o poder discricionário do utilizador para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor. |
2. As obrigações previstas nos n.os 1 e 1-A não excluem outras obrigações do responsável pela implantação previstas na legislação da União ou nacional nem prejudicam o poder discricionário do responsável pela implantação para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor. |
Alteração 403
Proposta de regulamento
Artigo 29 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Sem prejuízo do disposto no n.º 1, desde que o utilizador exerça controlo sobre os dados de entrada, esse utilizador deve assegurar que os dados de entrada sejam adequados à finalidade prevista do sistema de IA de risco elevado. |
3. Sem prejuízo do disposto nos n.os 1e 1-A, desde que o responsável pela implantação exerça controlo sobre os dados de entrada, esse responsável pela implantação deve assegurar que os dados de entrada sejam suficientemente representativos e adequados à finalidade prevista do sistema de IA de risco elevado. |
Alteração 404
Proposta de regulamento
Artigo 29 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. Os utilizadores devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização. Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.º, n.º 1, devem informar o fornecedor ou distribuidor e suspender a utilização do sistema. Devem também informar o fornecedor ou distribuidor e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave ou anomalia na aceção do artigo 62.º. Se o utilizador não conseguir entrar em contacto com o fornecedor, aplica-se, por analogia, o artigo 62.º. |
4. Os responsáveis pela implantação devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização e, se for caso disso, informar os fornecedores em conformidade com o artigo 61.º. Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.º, n.º 1, devem informar o fornecedor ou distribuidor e as autoridades nacionais de controlo pertinentes e suspender a utilização do sistema. Devem também informar, imediatamente, primeiro o fornecedor e depois o importador ou distribuidor e as autoridades nacionais de controlo pertinentes e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave ou anomalia na aceção do artigo 62.º. Se o responsável pela implantação não conseguir entrar em contacto com o fornecedor, aplica-se, por analogia, o artigo 62.º. |
Alteração 405
Proposta de regulamento
Artigo 29 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Em relação aos utilizadores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras relativas a sistemas, processos e mecanismos de governação interna previstas no artigo 74.º da referida diretiva. |
Em relação aos responsáveis pela implantação que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE, considera-se que a obrigação de controlo estabelecida no primeiro parágrafo é satisfeita mediante o cumprimento das regras relativas a sistemas, processos e mecanismos de governação interna previstas no artigo 74.º da referida diretiva. |
Alteração 406
Proposta de regulamento
Artigo 29 – n.º 5 – parte introdutória
|
|
Texto da Comissão |
Alteração |
5. Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Os registos devem ser mantidos por um período adequado em função da finalidade prevista do sistema de IA de risco elevado e das obrigações legais aplicáveis nos termos da legislação da União ou nacional. |
5. Os responsáveis pela implantação de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo e sejam necessários para garantir e demonstrar a conformidade com o presente regulamento, para as auditorias ex post de quaisquer anomalias, incidentes ou utilizações indevidas do sistema razoavelmente previsíveis, ou para garantir e monitorizar o bom funcionamento do sistema ao longo do seu ciclo de vida. Sem prejuízo da legislação da União ou nacional aplicável, os registos devem ser mantidos por um período mínimo de 6 meses. O período de conservação deve estar em conformidade com as normas do setor e ser adequado à finalidade prevista do sistema de IA de risco elevado. |
Alteração 407
Proposta de regulamento
Artigo 29 – n.º 5 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os utilizadores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter os registos como parte da documentação relativa a sistemas, processos e mecanismos de governação interna prevista no artigo 74.º da referida diretiva. |
Os responsáveis pela implantação que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE devem manter os registos como parte da documentação relativa a sistemas, processos e mecanismos de governação interna prevista no artigo 74.º da referida diretiva. |
Alteração 408
Proposta de regulamento
Artigo 29 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. Antes da entrada em serviço ou da utilização de um sistema de IA de risco elevado no local de trabalho, os responsáveis pela implantação devem consultar os representantes dos trabalhadores, com vista a alcançar um acordo em conformidade com a Diretiva 2002/14/CE e informar os trabalhadores afetados de que estarão sujeitos ao sistema. |
Alteração 409
Proposta de regulamento
Artigo 29 – n.º 5-B (novo)
|
|
Texto da Comissão |
Alteração |
|
5-B. Os responsáveis pela implantação de sistemas de IA de risco elevado que sejam autoridades públicas ou instituições, órgãos e organismos da União, referidos no artigo 51.º, n.º 1-A, alínea b), devem cumprir as obrigações de registo referidas no artigo 51.º. |
Alteração 410
Proposta de regulamento
Artigo 29 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os utilizadores de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.º para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680, conforme aplicável. |
6. Se for caso disso, os responsáveis pela implantação de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.º para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680, sendo publicado um resumo daquela, tendo em conta a utilização específica e o contexto específico em que o sistema de IA se destina a funcionar. Os responsáveis pela implantação podem voltar, em parte, a essas avaliações de impacto sobre a proteção de dados para cumprir algumas das obrigações estabelecidas no presente artigo, na medida em que a avaliação de impacto sobre a proteção de dados cumpra essas obrigações. |
Alteração 411
Proposta de regulamento
Artigo 29 – n.º 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
6-A. Sem prejuízo do artigo 52.º, os responsáveis pela implantação de sistemas de IA de risco elevado referidos no anexo III, que tomam decisões, ou ajudam a tomar decisões, relacionadas com pessoas singulares, devem informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado. Esta informação deve incluir a finalidade prevista e o tipo de decisões que toma. O responsável pela implantação deve também informar a pessoa singular do seu direito à explicação a que se refere o artigo 68.º-C. |
Alteração 412
Proposta de regulamento
Artigo 29 – n.º 6-B (novo)
|
|
Texto da Comissão |
Alteração |
|
6-B. Os responsáveis pela implantação devem cooperar com as autoridades nacionais competentes em qualquer ação que estas autoridades tomem em relação a um sistema de IA de risco elevado, a fim de aplicar o presente regulamento. |
Alteração 413
Proposta de regulamento
Artigo 29-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 29.º-A |
|
Avaliação de impacto dos sistemas de IA de risco elevado sobre os direitos fundamentais |
|
Antes de utilizar um sistema de IA de risco elevado, na aceção do artigo 6.º, n.º 2, com exceção dos sistemas de IA concebidos para serem usados no domínio 2 do anexo III, os responsáveis pela implantação devem realizar uma avaliação de impacto dos sistemas no contexto específico da sua utilização. Esta avaliação deve incluir, pelo menos, os seguintes elementos: |
|
a) Uma indicação clara da finalidade a que se destina a utilização do sistema; |
|
b) Uma indicação clara do âmbito geográfico e temporal previsto para a utilização do sistema; |
|
c) As categorias de pessoas singulares e grupos suscetíveis de serem afetados pela utilização do sistema; |
|
d) A verificação de que a utilização do sistema está conforme a legislação da União e nacional pertinente em matéria de direitos fundamentais; |
|
e) O impacto razoavelmente previsível sobre os direitos fundamentais, resultante da utilização do sistema de IA de risco elevado; |
|
f) Os riscos específicos de danos suscetíveis de afetarem as pessoas marginalizadas ou os grupos vulneráveis; |
|
g) O impacto adverso razoavelmente previsível da utilização do sistema sobre o ambiente; |
|
h) Um plano pormenorizado sobre a forma como serão atenuados os danos ou o impacto negativo nos direitos fundamentais identificados. |
|
j) O sistema de governação que o responsável pela implantação instituirá, incluindo supervisão humana, tratamento de reclamações e vias de recurso. |
|
2. Se um plano pormenorizado para atenuar os riscos descritos no decurso da avaliação descrita no n.º 1 não for identificado, o responsável pela implantação deve abster-se de utilizar o sistema de IA de risco elevado e informar, sem demora injustificada, o fornecedor e a autoridade nacional de controlo. As autoridades nacionais de controlo, em conformidade com os artigos 65.º e 67.º, devem ter em conta esta informação quando da investigação de sistemas que apresentem um risco a nível nacional. |
|
3. A obrigação prevista no n.º 1 aplica-se à primeira utilização do sistema de IA de risco elevado. O responsável pela implantação pode, em casos semelhantes, recorrer à avaliação de impacto sobre os direitos fundamentais efetuada anteriormente ou à avaliação existente realizada pelos fornecedores. Se, durante a utilização do sistema de IA de risco elevado, o responsável pela implantação considerar que os critérios enumerados no n.º 1 deixaram de ser cumpridos, deve realizar uma nova avaliação de impacto sobre os direitos fundamentais. |
|
4. No decurso da avaliação de impacto, o responsável pela implantação, com exceção das PME, deve notificar as autoridades nacionais de controlo e as partes interessadas pertinentes, bem como envolver, tanto quanto possível, os representantes das pessoas ou grupos de pessoas previsivelmente afetadas pelo sistema de IA de risco elevado, tal como identificado no n.º 1, incluindo entre outros: organismos de promoção da igualdade, organismos de defesa do consumidor, parceiros sociais e organismos de proteção de dados, com vista a receber contributos para a avaliação de impacto. O responsável pela implantação deve conceder um período de seis semanas para os organismos responderem. As PME podem aplicar voluntariamente as disposições estabelecidas no presente número. |
|
No caso referido no artigo 47.º, n.º 1, as autoridades públicas podem ser dispensadas destas obrigações. |
|
5. O responsável pela implantação que seja uma autoridade pública ou uma empresa, referidas no artigo 51.º, n.º 1-A, alínea b), deve publicar os resultados da avaliação de impacto como parte do registo de utilização, em conformidade com a sua obrigação prevista no artigo 51.º, n.º 2. |
|
6. Sempre que o responsável pela implantação já seja obrigado a proceder a uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680, a avaliação de impacto sobre os direitos fundamentais descrita no n.º 1 deve ser realizada em conjunto com a avaliação de impacto sobre a proteção de dados. A avaliação de impacto sobre a proteção de dados deve ser publicada como uma adenda. |
Alteração 414
Proposta de regulamento
Artigo 30 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Cada Estado-Membro deve designar ou criar uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e pela fiscalização destes. |
1. Cada Estado-Membro deve designar ou criar uma autoridade notificadora responsável por estabelecer e executar os procedimentos necessários para a avaliação, a designação e a notificação de organismos de avaliação da conformidade e pela fiscalização destes. Esses procedimentos devem ser desenvolvidos através da cooperação entre as autoridades notificadoras de todos os Estados-Membros. |
Alteração 415
Proposta de regulamento
Artigo 30 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número suficiente para o correto exercício das suas funções. |
7. As autoridades notificadoras devem dispor de recursos humanos com competência técnica em número suficiente para o correto exercício das suas funções. Se for caso disso, o pessoal competente deve possuir os conhecimentos especializados necessários, nomeadamente um diploma num domínio jurídico adequado, sobre a supervisão dos direitos fundamentais consagrados na Carta dos Direitos Fundamentais da União Europeia. |
Alteração 416
Proposta de regulamento
Artigo 30 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. As autoridades notificadoras devem certificar-se de que as avaliações da conformidade são realizadas de modo proporcionado, evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço. |
8. As autoridades notificadoras devem certificar-se de que as avaliações da conformidade são realizadas de modo proporcionado e atempado, evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço. Deve ser prestada especial atenção à redução dos encargos administrativos e dos custos de conformidade para as micro e pequenas empresas, na aceção do anexo da Recomendação 2003/361/CE da Comissão. |
Alteração 417
Proposta de regulamento
Artigo 32 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. As autoridades notificadoras só podem notificar organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 33.º. |
1. As autoridades notificadoras só devem notificar organismos de avaliação da conformidade que cumpram os requisitos previstos no artigo 33.º. |
Alteração 418
Proposta de regulamento
Artigo 32 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros utilizando um instrumento de notificação eletrónica criado e gerido pela Comissão. |
2. As autoridades notificadoras devem notificar a Comissão e os restantes Estados-Membros utilizando um instrumento de notificação eletrónica criado e gerido pela Comissão sobre cada organismo de avaliação da conformidade a que se refere o n.º 1. |
Alteração 419
Proposta de regulamento
Artigo 32 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. A notificação deve incluir dados completos das atividades de avaliação da conformidade, do módulo ou módulos de avaliação da conformidade e das tecnologias de inteligência artificial em questão. |
3. A notificação a que se refere o n.º 2 deve incluir dados completos das atividades de avaliação da conformidade, do módulo ou módulos de avaliação da conformidade e das tecnologias de inteligência artificial em questão, bem como a certificação de competência pertinente. |
Alteração 420
Proposta de regulamento
Artigo 32 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O organismo de avaliação da conformidade em causa apenas pode exercer as atividades de organismo notificado se nem a Comissão nem os restantes Estados-Membros tiverem levantado objeções no mês seguinte à notificação. |
4. O organismo de avaliação da conformidade em causa apenas pode exercer as atividades de organismo notificado se nem a Comissão nem os restantes Estados-Membros tiverem levantado objeções nas duas semanas seguintes à validação da notificação, se esta incluir o certificado de acreditação a que se refere o artigo 31.º, n.º 2, ou nos dois meses seguintes à notificação, se esta incluir as provas documentais a que se refere o artigo 31.º, n.º 3. |
Alteração 421
Proposta de regulamento
Artigo 32 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Caso sejam levantadas objeções, a Comissão deve proceder, sem demora, a consultas com os Estados-Membros pertinentes e o organismo de avaliação da conformidade. Tendo em conta estas consultas, a Comissão decide se a autorização se justifica ou não. A Comissão deve comunicar a sua decisão ao Estado-Membro em causa e ao organismo de avaliação da conformidade pertinente. |
Alteração 422
Proposta de regulamento
Artigo 32 – n.º 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
4-B. Os Estados-Membros devem notificar a Comissão e os outros Estados-Membros dos organismos de avaliação da conformidade. |
Alteração 423
Proposta de regulamento
Artigo 33 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o exercício das suas tarefas. |
2. Os organismos notificados devem satisfazer os requisitos em termos de organização, gestão da qualidade, recursos e processos que sejam necessários para o exercício das suas tarefas, bem como os requisitos mínimos de cibersegurança estabelecidos para as entidades da administração pública identificadas como operadores de serviços essenciais nos termos da Diretiva (UE) 2022/2555. |
Alteração 424
Proposta de regulamento
Artigo 33 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os organismos notificados devem ser independentes do fornecedor de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de qualquer outro operador que tenha um interesse económico no sistema de IA de risco elevado que é avaliado, bem como de quaisquer concorrentes do fornecedor. |
4. Os organismos notificados devem ser independentes do fornecedor de um sistema de IA de risco elevado relativamente ao qual realizam atividades de avaliação da conformidade. Os organismos notificados devem também ser independentes de qualquer outro operador que tenha um interesse económico no sistema de IA de risco elevado que é avaliado, bem como de quaisquer concorrentes do fornecedor. Esta exigência não impede a utilização de sistemas de IA avaliados que sejam necessários ao desempenho das atividades do organismo de avaliação da conformidade, nem a sua utilização para fins pessoais. |
Alteração 425
Proposta de regulamento
Artigo 33 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Uma avaliação da conformidade nos termos do n.º 1 deve ser realizada por funcionários de organismos notificados que não tenham prestado qualquer outro serviço relacionado com a questão avaliada, para além da avaliação da conformidade, ao fornecedor dum sistema de IA de risco elevado ou a qualquer pessoa coletiva ligada a esse fornecedor no período de 12 meses anterior à avaliação, e que se tenham comprometido a não lhes prestar tais serviços no período de 12 meses após a conclusão da avaliação. |
Alteração 426
Proposta de regulamento
Artigo 33 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades. |
6. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado-Membro em que exerce as suas atividades. Todas as informações e documentação que os organismos notificados obtenham nos termos das disposições do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 427
Proposta de regulamento
Artigo 34 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. As atividades só podem ser exercidas por um subcontratante ou por uma filial mediante acordo do fornecedor. |
3. As atividades só podem ser exercidas por um subcontratante ou por uma filial mediante acordo do fornecedor. Os organismos notificados devem disponibilizar ao público uma lista das suas filiais. |
Alteração 428
Proposta de regulamento
Artigo 34 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os organismos notificados devem manter à disposição da autoridade notificadora os documentos necessários respeitantes à avaliação das qualificações do subcontratante ou da filial e ao trabalho efetuado por estes nos termos do presente regulamento. |
4. Os organismos notificados devem manter à disposição da autoridade notificadora os documentos necessários respeitantes à verificação das qualificações do subcontratante ou da filial e ao trabalho efetuado por estes nos termos do presente regulamento. |
Alteração 429
Proposta de regulamento
Artigo 35 – título
|
|
Texto da Comissão |
Alteração |
Números de identificação e listas de organismos notificados designados nos termos do presente regulamento |
Números de identificação e listas de organismos notificados |
Alteração 430
Proposta de regulamento
Artigo 36 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Caso uma autoridade notificadora suspeite ou seja informada de que um organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 33.º, ou de que não cumpre as suas obrigações, deve imediatamente investigar a matéria com a máxima diligência. Neste contexto, deve informar o organismo notificado em causa sobre as objeções levantadas e dar-lhe a possibilidade de expressar as suas observações. Caso a autoridade notificadora conclua que o organismo notificado deixou de cumprir os requisitos estabelecidos no artigo 33.º, ou que não cumpre as suas obrigações, deve restringir, suspender ou retirar a notificação, consoante o caso, em função da gravidade do incumprimento. Deve ainda informar imediatamente a Comissão e os restantes Estados-Membros deste facto. |
(Não se aplica à versão portuguesa.) |
Alteração 431
Proposta de regulamento
Artigo 36 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Em caso de restrição, suspensão ou retirada da notificação, ou caso o organismo notificado tenha cessado atividade, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos desse organismo notificado são assumidos por outro organismo notificado ou mantidos à disposição das autoridades notificadoras competentes, se estas o solicitarem. |
2. Em caso de restrição, suspensão ou retirada da notificação, ou caso o organismo notificado tenha cessado atividade, a autoridade notificadora deve tomar as medidas necessárias para assegurar que os processos desse organismo notificado são assumidos por outro organismo notificado ou mantidos à disposição das autoridades notificadoras competentes e autoridades de fiscalização do mercado, se estas o solicitarem. |
Alteração 432
Proposta de regulamento
Artigo 37 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar do cumprimento dos requisitos estabelecidos no artigo 33.º por parte de um organismo notificado. |
1. A Comissão investiga, sempre que necessário, todos os casos em que haja motivos para duvidar da competência de um organismo notificado ou do cumprimento continuado dos requisitos e responsabilidades aplicáveis por parte de um organismo notificado. |
Alteração 433
Proposta de regulamento
Artigo 37 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações importantes relacionadas com a notificação do organismo notificado em causa. |
2. A autoridade notificadora deve facultar à Comissão, mediante pedido, todas as informações importantes relacionadas com a notificação ou a manutenção da competência do organismo notificado em causa. |
Alteração 434
Proposta de regulamento
Artigo 37 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. A Comissão garante que todas as informações confidenciais obtidas no decurso das suas investigações nos termos do presente artigo são tratadas de forma confidencial. |
3. A Comissão garante que todas as informações sensíveis obtidas no decurso das suas investigações nos termos do presente artigo são tratadas de forma confidencial. |
Alteração 435
Proposta de regulamento
Artigo 37 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos estabelecidos no artigo 33.º, a Comissão adota uma decisão fundamentada solicitando ao Estado-Membro notificador que tome as medidas corretivas necessárias, incluindo, se for caso disso, a retirada da notificação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
4. Caso verifique que um organismo notificado não cumpre ou deixou de cumprir os requisitos aplicáveis à sua notificação, a Comissão informa o Estado-Membro notificador do facto e solicita-lhe que tome as medidas corretivas necessárias, incluindo, se for caso disso, a suspensão ou retirada da notificação. Se o Estado-Membro não tomar as medidas corretivas necessárias, a Comissão pode, por meio dum ato de execução, suspender, restringir ou retirar a designação. O referido ato de execução é adotado de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
Alteração 436
Proposta de regulamento
Artigo 38 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. A Comissão deve proporcionar o intercâmbio de conhecimentos especializados e de boas práticas entre as autoridades nacionais dos Estados-Membros responsáveis pela política de notificação. |
Alteração 437
Proposta de regulamento
Artigo 40 – n.º 1
|
|
Texto da Comissão |
Alteração |
Presume-se que os sistemas de IA de risco elevado que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais normas abranjam esses requisitos. |
Presume-se que os sistemas de IA de risco elevado e os modelos de base que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, em conformidade com o Regulamento (UE) n.º 1025/2012, são conformes com os requisitos estabelecidos no capítulo 2 do presente título ou no artigo 28.º-B, desde que tais normas abranjam esses requisitos. |
Alteração 438
Proposta de regulamento
Artigo 40 – parágrafo 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
A Comissão deve emitir pedidos de normalização que abranjam todos os requisitos do presente regulamento, em conformidade com o artigo 10.º do Regulamento (UE) n.º 1025/2012, até... [dois meses após a entrada em vigor do presente regulamento]. Ao preparar o pedido de normalização, a Comissão deve consultar o Serviço IA e o fórum consultivo; |
Alteração 439
Proposta de regulamento
Artigo 40 – parágrafo 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Ao apresentar um pedido de normalização às organizações europeias de normalização, a Comissão especifica que as normas têm de ser coerentes, inclusivamente com o direito setorial enumerado no anexo II, e destinadas a assegurar que os sistemas de IA ou os modelos de base colocados no mercado ou colocados em serviço na União cumprem os requisitos pertinentes estabelecidos no presente regulamento; |
Alteração 440
Proposta de regulamento
Artigo 40 – parágrafo 1-C (novo)
|
|
Texto da Comissão |
Alteração |
|
Os intervenientes no processo de normalização devem ter em conta os princípios gerais para uma IA fiável previstos no artigo 4.º, alínea a), procurar promover o investimento e a inovação na IA e também a competitividade e o crescimento do mercado da União, contribuir para reforçar a cooperação mundial em matéria de normalização – tendo em conta as normas internacionais existentes no domínio da IA que sejam coerentes com os valores, os direitos fundamentais e os interesses da União – e ainda assegurar uma representação equilibrada dos interesses e a participação efetiva de todas as partes interessadas pertinentes, em conformidade com os artigos 5.º, 6.º e 7.º do Regulamento (UE) n.º 1025/2012. |
Alteração 441
Proposta de regulamento
Artigo 41 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
1. Na ausência das normas harmonizadas a que se refere o artigo 40.º ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas em termos de segurança ou direitos fundamentais, a Comissão pode, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
Suprimido |
Alteração 442
Proposta de regulamento
Artigo 41 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. A Comissão pode – por meio dum ato de execução adotado em conformidade com o procedimento de exame a que se refere o artigo 74.º, n.º 2, e após consulta do Serviço IA e do Fórum Consultivo para a Inteligência Artificial – adotar especificações comuns no que diz respeito aos requisitos estabelecidos no capítulo 2 do presente título ou no artigo 28.º-B, caso estejam preenchidas todas as condições seguintes: |
|
a) Não existe qualquer referência a normas harmonizadas já publicadas no Jornal Oficial da União Europeia e relacionadas com o(s) requisito(s) essencial(ais), a menos que a norma harmonizada em causa seja uma norma existente que tem de ser revista; |
|
b) A Comissão solicitou a uma ou mais organizações de normalização europeias a elaboração duma norma harmonizada relativa ao(s) requisito(s) essencial(ais) estabelecido(s) no capítulo 2; |
|
c) O pedido referido na alínea b) não foi aceite por nenhuma das organizações de normalização europeias ou há atrasos indevidos na elaboração duma norma harmonizada adequada ou a norma fornecida não satisfaz os requisitos da legislação aplicável da União ou não cumpre o pedido da Comissão. |
Alteração 443
Proposta de regulamento
Artigo 41 – n.º 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
1-B. Se a Comissão considerar que é necessário dar resposta a preocupações específicas em matéria de direitos fundamentais, as especificações comuns adotadas pela Comissão nos termos do n.º 1-A devem também abordar essas mesmas preocupações específicas. |
Alteração 444
Proposta de regulamento
Artigo 41 – n.º 1-C (novo)
|
|
Texto da Comissão |
Alteração |
|
1-C. A Comissão deve elaborar especificações comuns relativas à metodologia para cumprir o requisito de prestação de informações e de documentação sobre o consumo de energia e de recursos durante o desenvolvimento, a formação e a implantação do sistema de IA de risco elevado. |
Alteração 445
Proposta de regulamento
Artigo 41 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável. |
2. Ao longo de todo o processo de elaboração das especificações comuns a que se referem os n.ºs 1-A e 1-B, a Comissão consulta regularmente o Serviço IA e o fórum consultivo, as organizações de normalização europeias e os organismos ou grupos de peritos criados nos termos do direito setorial da União aplicável, bem como outras partes interessadas pertinentes. A Comissão deve cumprir os objetivos referidos no artigo 40.º, n.º 1-C, e justificar devidamente as razões pelas quais decidiu recorrer a especificações comuns. |
|
Caso a Comissão tencione adotar especificações comuns nos termos do n.º 1-A do presente artigo, deve também identificar claramente a preocupação específica em matéria de direitos fundamentais a abordar. |
|
Ao adotar especificações comuns nos termos dos n.ºs 1-A e 1-B do presente artigo, a Comissão tem em conta o parecer emitido pelo Serviço IA a que se refere o artigo 56.º-E, alínea b), do presente regulamento. Se a Comissão decidir não seguir o parecer do Serviço IA, deve apresentar a este uma explicação fundamentada. |
Alteração 446
Proposta de regulamento
Artigo 41 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Presume-se que os sistemas de IA de risco elevado que estão em conformidade com as especificações comuns a que se refere o n.º 1 são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais especificações comuns abranjam esses requisitos. |
3. Presume-se que os sistemas de IA de risco elevado que estão em conformidade com as especificações comuns a que se referem os n.ºs 1-A e 1-B são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais especificações comuns abranjam esses requisitos. |
Alteração 447
Proposta de regulamento
Artigo 41 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Sempre que uma norma harmonizada seja adotada por uma organização de normalização europeia e a publicação da sua referência no Jornal Oficial da União Europeia seja proposta à Comissão, esta última deve avaliar a norma harmonizada nos termos do Regulamento (UE) n.º 1025/2012. Quando a referência a uma norma harmonizada é publicada no Jornal Oficial da União Europeia, a Comissão revoga os atos referidos nos n.ºs 1 e 1-B, ou partes dos mesmos que abranjam os mesmos requisitos estabelecidos no capítulo 2 do presente título. |
Alteração 448
Proposta de regulamento
Artigo 41 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os fornecedores que não cumprirem as especificações comuns a que se refere o n.º 1 devem justificar devidamente que adotaram soluções técnicas, no mínimo, equivalentes. |
4. Os fornecedores de sistemas de IA de risco elevado que não cumprirem as especificações comuns a que se refere o n.º 1 devem justificar devidamente que adotaram soluções técnicas que cumprem os requisitos referidos no capítulo 2 a um nível, no mínimo, equivalente. |
Alteração 449
Proposta de regulamento
Artigo 42 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
1. Tendo em conta a sua finalidade prevista, presume-se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental e funcional específico no qual se destinam a ser utilizados são conformes com o requisito estabelecido no artigo 10.º, n.º 4. |
1. Tendo em conta a sua finalidade prevista, presume-se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental, contextual e funcional específico no qual se destinam a ser utilizados são conformes com os requisitos respetivos estabelecidos no artigo 10.º, n.º 4. |
Alteração 450
Proposta de regulamento
Artigo 43 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor tiver aplicado normas harmonizadas a que se refere o artigo 40.º, ou, se for caso disso, especificações comuns a que se refere o artigo 41.º, o fornecedor deve seguir um dos seguintes procedimentos: |
1. No respeitante aos sistemas de IA de risco elevado enumerados no anexo III, ponto 1, quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor tiver aplicado normas harmonizadas a que se refere o artigo 40.º, ou, se for caso disso, especificações comuns a que se refere o artigo 41.º, o fornecedor deve optar por um dos seguintes procedimentos: |
Alteração 451
Proposta de regulamento
Artigo 43 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) O procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI; |
a) O procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI; ou |
Alteração 452
Proposta de regulamento
Artigo 43 – parágrafo 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) O procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII. |
b) O procedimento de avaliação da conformidade baseado na avaliação do sistema de gestão da qualidade da documentação técnica, com a participação de um organismo notificado, a que se refere o anexo VII. |
Alteração 453
Proposta de regulamento
Artigo 43 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Quando, ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor não tiver aplicado ou tiver aplicado apenas parcialmente normas harmonizadas a que se refere o artigo 40.º, ou se tais normas harmonizadas não existirem e as especificações comuns a que se refere o artigo 41.º não estiverem disponíveis, o fornecedor deve seguir o procedimento de avaliação da conformidade preconizado no anexo VII. |
Ao demonstrar a conformidade de um sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título, o fornecedor deve seguir o procedimento de avaliação da conformidade preconizado no anexo VII nos seguintes casos: |
|
a) Quando não existirem as normas harmonizadas a que se refere o artigo 40.º – cujos números de referência tenham sido publicados no Jornal Oficial da União Europeia – que prevejam todos os requisitos de segurança aplicáveis ao sistema de IA e as especificações comuns a que se refere o artigo 41.º não estiverem disponíveis; |
|
b) Quando as especificações técnicas referidas na alínea a) existirem, mas o fornecedor não as tiver aplicado ou tiver aplicado apenas parcialmente; |
|
c) Quando uma ou mais das especificações técnicas referidas na alínea a) tiverem sido publicadas com restrições e apenas na parte da norma que foi objeto da restrição; |
|
d) Quando o fornecedor considerar que a natureza, o projeto, a construção ou a finalidade do sistema de IA necessitam de verificação por terceiros, independentemente do seu nível de risco. |
Alteração 454
Proposta de regulamento
Artigo 43 – n.º 1 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Para efeitos do procedimento de avaliação da conformidade a que se refere o anexo VII, o fornecedor pode escolher qualquer um dos organismos notificados. Contudo, se o sistema se destinar a ser colocado em serviço por autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo, bem como por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 63.º, n.ºs 5 ou 6, consoante o caso, deve atuar como um organismo notificado. |
Para efeitos da realização do procedimento de avaliação da conformidade a que se refere o anexo VII, o fornecedor pode escolher qualquer um dos organismos notificados. Contudo, se o sistema se destinar a ser colocado em serviço por autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo, bem como por instituições, órgãos e organismos da UE, a autoridade de fiscalização do mercado a que se refere o artigo 63.º, n.ºs 5 ou 6, consoante o caso, deve atuar como um organismo notificado. |
Alteração 455
Proposta de regulamento
Artigo 43 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. Os sistemas de IA de risco elevado devem ser sujeitos a um novo procedimento de avaliação da conformidade sempre que forem substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser usado pelo utilizador atual. |
4. Os sistemas de IA de risco elevado que já tenham sido sujeitos a um procedimento de avaliação da conformidade devem ser sujeitos a um novo procedimento de avaliação da conformidade sempre que forem substancialmente modificados, independentemente de o sistema modificado se destinar a distribuição ulterior ou continuar a ser usado pelo responsável pela implantação atual. |
Alteração 456
Proposta de regulamento
Artigo 43 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Os interesses e as necessidades específicas das PME devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade de terceiros nos termos do presente artigo, reduzindo essas taxas proporcionalmente à sua dimensão e à quota de mercado. |
Alteração 457
Proposta de regulamento
Artigo 43 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica. |
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica. Ao preparar esses atos delegados, a Comissão deve consultar o Serviço IA e as partes interessadas afetadas. |
Alteração 458
Proposta de regulamento
Artigo 43 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.ºs 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.ºs 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. Ao preparar esses atos delegados, a Comissão deve consultar o Serviço IA e as partes interessadas afetadas. |
Alteração 459
Proposta de regulamento
Artigo 44 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa língua oficial da União determinada pelo Estado-Membro em que estiver estabelecido o organismo notificado ou numa outra língua oficial da União aceite pelo organismo notificado. |
1. Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa ou várias línguas oficiais da União determinadas pelo Estado-Membro em que estiver estabelecido o organismo notificado ou numa ou várias línguas oficiais da União aceites pelo organismo notificado. |
Alteração 460
Proposta de regulamento
Artigo 44 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os certificados são válidos pelo período neles indicado, que não pode exceder cinco anos. A pedido do fornecedor, a validade de um certificado pode ser prorrogada por novos períodos não superiores a cinco anos, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis. |
2. Os certificados são válidos pelo período neles indicado, que não pode exceder quatro anos. A pedido do fornecedor, a validade de um certificado pode ser prorrogada por novos períodos não superiores a quatro anos, com base numa reavaliação segundo os procedimentos de avaliação da conformidade aplicáveis. |
Alteração 461
Proposta de regulamento
Artigo 44 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos no capítulo 2 do presente título, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, tendo em conta o princípio da proporcionalidade, a não ser que o fornecedor do sistema garanta o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão. |
3. Se verificar que um sistema de IA deixou de cumprir os requisitos estabelecidos no capítulo 2 do presente título, o organismo notificado deve suspender, retirar ou restringir o certificado emitido, a não ser que o fornecedor do sistema garanta o cumprimento desses requisitos tomando as medidas corretivas necessárias num prazo adequado estabelecido pelo organismo notificado. O organismo notificado deve fundamentar a sua decisão. |
Alteração 462
Proposta de regulamento
Artigo 45 – n.º 1
|
|
Texto da Comissão |
Alteração |
Os Estados-Membros devem assegurar a disponibilidade de um procedimento de recurso das decisões às partes com um interesse legítimo nessa decisão. |
Os Estados-Membros devem assegurar a disponibilidade de um procedimento de recurso das decisões, nomeadamente as respeitantes a certificados de conformidade, às partes com um interesse legítimo nessa decisão. |
Alteração 463
Proposta de regulamento
Artigo 46 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Cada organismo notificado deve disponibilizar aos outros organismos notificados que realizam atividades de avaliação da conformidade semelhantes, abrangendo as mesmas tecnologias de inteligência artificial, informações importantes sobre questões relativas aos resultados negativos e, se lhe for pedido, aos resultados positivos de procedimentos de avaliação da conformidade. |
3. Cada organismo notificado deve disponibilizar aos outros organismos notificados que realizam atividades de avaliação da conformidade semelhantes informações importantes sobre questões relativas aos resultados negativos e, se lhe for pedido, aos resultados positivos de procedimentos de avaliação da conformidade. |
Alteração 464
Proposta de regulamento
Artigo 47 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Em derrogação do artigo 43.º, qualquer autoridade de fiscalização do mercado pode autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de segurança pública ou de proteção da vida e da saúde das pessoas, de proteção do ambiente e de proteção de ativos industriais e infraestruturas essenciais. Essa autorização deve ser concedida por um período limitado, enquanto os procedimentos de avaliação da conformidade necessários estiverem a ser executados, e cessa assim que esses procedimentos tiverem sido concluídos. A conclusão desses procedimentos deve ser realizada sem demora injustificada. |
1. Em derrogação do artigo 43.º, qualquer autoridade nacional de controlo pode pedir a uma autoridade judicial para autorizar a colocação no mercado ou a colocação em serviço de determinados sistemas de IA de risco elevado no território do Estado-Membro em causa, por motivos excecionais de proteção da vida e da saúde das pessoas, de proteção do ambiente e de proteção de infraestruturas críticas. Essa autorização deve ser concedida por um período limitado, enquanto os procedimentos de avaliação da conformidade necessários estiverem a ser executados, e cessa assim que esses procedimentos tiverem sido concluídos. A conclusão desses procedimentos deve ser realizada sem demora injustificada. |
Alteração 465
Proposta de regulamento
Artigo 47 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A autorização a que se refere o n.º 1 apenas deve ser concedida se a autoridade de fiscalização do mercado concluir que o sistema de IA de risco elevado cumpre os requisitos do capítulo 2 do presente título. A autoridade de fiscalização do mercado deve informar a Comissão e os outros Estados-Membros sobre qualquer autorização concedida nos termos do n.º 1. |
2. A autorização a que se refere o n.º 1 apenas deve ser concedida se a autoridade nacional de controlo e a autoridade judicial concluírem que o sistema de IA de risco elevado cumpre os requisitos do capítulo 2 do presente título. A autoridade nacional de controlo deve informar a Comissão, o Serviço IA e os outros Estados-Membros sobre qualquer pedido apresentado e qualquer autorização concedida nos termos do n.º 1. |
Alteração 466
Proposta de regulamento
Artigo 47 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.º 2, nem os Estados-Membros nem a Comissão tiverem levantado objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de um Estado-Membro em conformidade com o n.º 1, considera-se que a mesma é justificada. |
3. Se, no prazo de 15 dias a contar da receção da informação a que se refere o n.º 2, nem os Estados-Membros nem a Comissão tiverem levantado objeções a um pedido da autoridade nacional de controlo de uma autorização concedida por uma autoridade nacional de controlo de um Estado-Membro em conformidade com o n.º 1, considera-se que a mesma é justificada. |
Alteração 467
Proposta de regulamento
Artigo 47 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.º 2, um Estado-Membro levantar objeções a uma autorização concedida por uma autoridade de fiscalização do mercado de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros relativa à conformidade do sistema a que se refere o n.º 2 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa. Os operadores em questão devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas observações, a Comissão decide se a autorização se justifica ou não. A Comissão designa o Estado-Membro e o operador ou operadores em causa como destinatários da decisão. |
4. Se, nos 15 dias subsequentes à receção da notificação a que se refere o n.º 2, um Estado-Membro levantar objeções a um pedido duma autoridade nacional de controlo de outro Estado-Membro, ou se a Comissão considerar que a autorização é contrária ao direito da União ou que a conclusão dos Estados-Membros relativa à conformidade do sistema a que se refere o n.º 2 é infundada, a Comissão procede sem demora a consultas com o Estado-Membro em causa e o Serviço IA. Os operadores em questão devem ser consultados e ter a possibilidade de apresentar as suas observações. Tendo em conta essas observações, a Comissão decide se a autorização se justifica ou não. A Comissão designa o Estado-Membro e o operador ou operadores em causa como destinatários da decisão. |
Alteração 468
Proposta de regulamento
Artigo 47 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Se a autorização for considerada injustificada, a autoridade de fiscalização do mercado do Estado-Membro em causa deve retirá-la. |
5. Se a autorização for considerada injustificada, a autoridade nacional de controlo do Estado-Membro em causa deve retirá-la. |
Alteração 469
Proposta de regulamento
Artigo 48 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O fornecedor deve elaborar uma declaração de conformidade UE escrita para cada sistema de IA e mantê-la à disposição das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA. A declaração de conformidade UE deve especificar o sistema de IA para o qual foi elaborada. Deve ser fornecida uma cópia da declaração de conformidade UE às autoridades nacionais competentes, mediante pedido. |
1. O fornecedor deve elaborar uma declaração de conformidade UE escrita, legível por máquina, física ou eletrónica, para cada sistema de IA de risco elevado e mantê-la à disposição da autoridade nacional de controlo e das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA de risco elevado. Deve ser apresentada uma cópia da declaração de conformidade UE à autoridade nacional de controlo, mediante pedido. |
Alteração 470
Proposta de regulamento
Artigo 48 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A declaração de conformidade UE deve mencionar que o sistema de IA de risco elevado em questão cumpre os requisitos estabelecidos no capítulo 2 do presente título. A declaração de conformidade UE deve conter as informações indicadas no anexo V e ser traduzida para uma ou várias línguas oficiais da União exigidas pelos Estados-Membros em que o sistema de IA de risco elevado é disponibilizado. |
2. A declaração de conformidade UE deve mencionar que o sistema de IA de risco elevado em questão cumpre os requisitos estabelecidos no capítulo 2 do presente título. A declaração de conformidade UE deve conter as informações indicadas no anexo V e ser traduzida para uma ou várias línguas oficiais da União exigidas pelos Estados-Membros em que o sistema de IA de risco elevado é colocado no mercado ou disponibilizado. |
Alteração 471
Proposta de regulamento
Artigo 48 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração de conformidade UE, deve ser elaborada uma única declaração de conformidade UE respeitante a todos os atos jurídicos da UE aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito. |
3. Se os sistemas de IA de risco elevado estiverem sujeitos a outra legislação de harmonização da União que também exija uma declaração de conformidade UE, pode ser elaborada uma única declaração de conformidade UE respeitante a todos os atos jurídicos da UE aplicáveis ao sistema de IA de risco elevado. A declaração deve incluir todas as informações necessárias para identificar a legislação de harmonização da União a que diz respeito. |
Alteração 472
Proposta de regulamento
Artigo 48 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar o conteúdo da declaração de conformidade UE preconizado no anexo V, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica. |
5. Após consultar o Serviço IA, a Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar o conteúdo da declaração de conformidade UE preconizado no anexo V, a fim de introduzir elementos que se tornem necessários à luz da evolução técnica. |
Alteração 473
Proposta de regulamento
Artigo 49 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
1. A marcação CE deve ser aposta de modo visível, legível e indelével em sistemas de IA de risco elevado. Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme mais adequado. |
1. A marcação CE física deve ser aposta de modo visível, legível e indelével em sistemas de IA de risco elevado antes de este sistema ser colocado no mercado. Caso a natureza do sistema de IA de risco elevado não permita ou não garanta essas características da marcação, esta deve ser aposta na embalagem ou na documentação que acompanha o sistema, conforme mais adequado. Pode ser seguida de um pictograma ou de qualquer outra marcação indicando um risco de utilização especial. |
Alteração 474
Proposta de regulamento
Artigo 49 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. No caso dos sistemas unicamente digitais de IA de risco elevado, deve ser utilizada uma marcação CE digital apenas se for possível aceder-lhe facilmente através da interface a partir da qual se acede ao sistema de IA ou através dum código legível por máquina facilmente acessível ou por outros meios eletrónicos. |
Alteração 475
Proposta de regulamento
Artigo 49 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Quando aplicável, a marcação CE deve ser seguida pelo número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.º. O número de identificação deve ser igualmente indicado em qualquer material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE. |
3. Quando aplicável, a marcação CE deve ser seguida pelo número de identificação do organismo notificado responsável pelos procedimentos de avaliação da conformidade estabelecidos no artigo 43.º. O número de identificação do organismo notificado deve ser aposto pelo próprio organismo ou, segundo as suas instruções, pelo mandatário do fornecedor. O número de identificação deve ser igualmente indicado em qualquer material promocional que mencione que o sistema de IA de risco elevado cumpre os requisitos aplicáveis à marcação CE. |
Alteração 476
Proposta de regulamento
Artigo 49 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Caso os sistemas de IA de risco elevado sejam objeto de outra legislação da União que também preveja a aposição da marcação CE, essa marcação indica que os sistemas de IA de risco elevado cumprem igualmente os requisitos dessa outra legislação. |
Alteração 477
Proposta de regulamento
Artigo 50 – parágrafo 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
O fornecedor deve manter à disposição das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço do sistema de IA: |
O fornecedor deve manter à disposição da autoridade nacional de controlo e das autoridades nacionais competentes, durante os dez anos subsequentes à data de colocação no mercado ou de colocação em serviço do sistema de IA: |
Alteração 478
Proposta de regulamento
Artigo 51 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado referido no artigo 6.º, n.º 2, o fornecedor ou, se for caso disso, o mandatário deve registar esse sistema na base de dados da UE a que se refere o artigo 60.º. |
Antes da colocação no mercado ou da colocação em serviço de um sistema de IA de risco elevado referido no artigo 6.º, n.º 2, o fornecedor ou, se for caso disso, o mandatário deve registar esse sistema na base de dados da UE a que se refere o artigo 60.º, em conformidade com o artigo 60.º, n.º 2. |
Alteração 479
Proposta de regulamento
Artigo 51 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Antes da colocação em serviço ou da utilização dum sistema de IA de risco elevado, em conformidade com o artigo 6.º, n.º 2, os responsáveis pela implantação das seguintes categorias devem registar a utilização desse sistema de IA na base de dados da UE a que se refere o artigo 60.º: |
|
a) Os responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos, organismos ou agências da União ou os responsáveis pela implantação que atuem em seu nome; |
|
b) Os responsáveis pela implantação que sejam empresas designadas como controladores de acesso ao abrigo do Regulamento (UE) 2022/1925. |
Alteração 480
Proposta de regulamento
Artigo 51 – parágrafo 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Os responsáveis pela implantação que não sejam abrangidos pelo n.º 1-A têm o direito de registar voluntariamente a utilização dum sistema de IA de risco elevado a que se refere o artigo 6.º, n.º 2, na base de dados da UE a que se refere o artigo 60.º. |
Alteração 481
Proposta de regulamento
Artigo 51 – n.º 1-C (novo)
|
|
Texto da Comissão |
Alteração |
|
É imperativo preencher uma entrada de registo atualizada imediatamente após cada alteração substancial. |
Alteração 482
Proposta de regulamento
Título IV
|
|
Texto da Comissão |
Alteração |
OBRIGAÇÕES DE TRANSPARÊNCIA APLICÁVEIS A DETERMINADOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL |
OBRIGAÇÕES DE TRANSPARÊNCIA |
Alteração 483
Proposta de regulamento
Artigo 52 – título
|
|
Texto da Comissão |
Alteração |
Obrigações de transparência aplicáveis a determinados sistemas de inteligência artificial |
Obrigações de transparência |
Alteração 484
Proposta de regulamento
Artigo 52 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que o sistema de IA, o próprio fornecedor ou o utilizador informem – duma forma atempada, clara e compreensível – a pessoa singular exposta a um sistema de IA de que está a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. |
|
Se adequado e pertinente, estas informações devem também incluir dados sobre as funções que são ativadas pela IA, a eventual supervisão humana e a responsabilidade pelo processo de tomada de decisão, bem como os direitos e processos existentes que, de acordo com o direito da União e o direito nacional, permitem que as pessoas singulares ou os seus representantes se oponham à aplicação de tais sistemas e procurem obter reparação judicial contra as decisões tomadas ou os danos causados por sistemas de IA, incluindo o seu direito de solicitar uma explicação. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
Alteração 485
Proposta de regulamento
Artigo 52 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar sobre o funcionamento do sistema as pessoas a ele expostas. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica que não seja proibido nos termos do artigo 5.º devem apresentar – de forma atempada, clara e compreensível – informações sobre o funcionamento do sistema às pessoas a ele expostas e devem obter o seu consentimento prévio para o tratamento dos respetivos dados biométricos ou outros dados pessoais, em conformidade com o Regulamento (UE) 2016/679, o Regulamento (UE) 2016/1725 e a Diretiva (UE) 2016/280, consoante aplicável. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
Alteração 486
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
3. Os utilizadores de um sistema de IA que gera ou manipula conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, objetos, locais ou outras entidades ou acontecimentos reais e que, falsamente, pareçam ser autênticos e verdadeiros a uma pessoa («falsificação profunda») devem divulgar que o conteúdo foi gerado ou manipulado artificialmente. |
3. Os utilizadores de um sistema de IA que gera ou manipula conteúdos de texto, áudio ou visual que, falsamente, pareçam ser autênticos e verdadeiros e que apresentam representações de pessoas que parecem dizer ou fazem coisas que não disseram ou fizeram, sem o seu consentimento («falsificação profunda») devem divulgar – de forma adequada, atempada, clara e visível – que o conteúdo foi gerado ou manipulado artificialmente e, sempre que possível, o nome da pessoa singular ou coletiva que o gerou ou manipulou. Por divulgação, entende-se a rotulagem do conteúdo, de uma forma claramente visível para o seu destinatário, informando que este não é autêntico. Para rotular o conteúdo, os utilizadores devem ter em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações pertinentes. |
Alteração 487
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Contudo, o primeiro parágrafo não se aplica se a utilização for legalmente autorizada para detetar, prevenir, investigar e reprimir infrações penais ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. |
3-A. O nº 3 não se aplica se a utilização de um sistema de IA que gera ou manipula texto, conteúdos áudio ou visuais for legalmente autorizada ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. Se o conteúdo fizer parte de uma obra ou de um programa aparentemente criativo, satírico, artístico ou fictício, de visuais de jogos de vídeo e obras ou programas análogos, as obrigações de transparência estabelecidas no n.º 3 limitam-se à divulgação da existência desses conteúdos gerados ou manipulados de forma adequada, clara e visível, que não prejudique a exibição da obra e a divulgação dos direitos de autor aplicáveis, se for caso disso. Também não deve impedir as autoridades policiais de utilizarem sistemas de IA concebidos para detetar falsificações profundas e prevenir, investigar e reprimir infrações penais relacionadas com a sua utilização. |
Alteração 488
Proposta de regulamento
Artigo 52 – n.º 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. As informações mencionadas nos n.º 1 a 3 são facultadas às pessoas singulares, o mais tardar no momento da primeira interação ou exposição. Devem ser acessíveis a pessoas vulneráveis, tais como pessoas com deficiência ou crianças, completas, se for caso disso e adequado, com procedimentos de intervenção ou sinalização para a pessoa singular exposta, tendo em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações comuns pertinentes. |
Alteração 489
Proposta de regulamento
Artigo 53 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados-Membros ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. Tal deve ocorrer sob a supervisão e orientação diretas das autoridades competentes com vista a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados-Membros supervisionada no ambiente de testagem. |
1. Os Estados-Membros devem criar, pelo menos, um ambiente de testagem da regulamentação da IA a nível nacional, que deve estar operacional, o mais tardar, no dia da entrada em vigor do presente regulamento.Este ambiente de testagem também pode ser criado em conjunto com um ou vários outros Estados-Membros. |
Alteração 490
Proposta de regulamento
Artigo 53 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. Podem também ser criados ambientes de testagem da regulamentação da IA a nível regional ou local ou em conjunto com outros Estados-Membros. |
Alteração 491
Proposta de regulamento
Artigo 53 – n.º 1-B (novo)
|
|
Texto da Comissão |
Alteração |
|
1-B. A Comissão e a Autoridade Europeia para a Proteção de Dados – por si só, em conjunto ou em colaboração com um ou mais Estados-Membros – podem também criar ambientes de testagem da regulamentação da IA a nível da União. |
Alteração 492
Proposta de regulamento
Artigo 53 – n.º 1-C (novo)
|
|
Texto da Comissão |
Alteração |
|
1-C. As autoridades responsáveis pela criação devem afetar recursos suficientes para dar cumprimento ao presente artigo de forma eficaz e atempada. |
Alteração 493
Proposta de regulamento
Artigo 53 – n.º 1-D (novo)
|
|
Texto da Comissão |
Alteração |
|
1-D. Os ambientes de testagem da regulamentação da IA – em conformidade com os critérios definidos no artigo 53.º-A – fornecem um ambiente controlado que promove a inovação e facilita o desenvolvimento, teste e validação de sistemas inovadores de IA por um tempo limitado, antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico acordado entre os potenciais fornecedores e a autoridade responsável pela criação. |
Alteração 494
Proposta de regulamento
Artigo 53 – n.º 1-E (novo)
|
|
Texto da Comissão |
Alteração |
|
1-E. O estabelecimento de ambientes de testagem da regulamentação da IA visa contribuir para os seguintes objetivos: |
|
a) Para que as autoridades competentes forneçam orientações aos potenciais fornecedores de sistemas de IA para alcançar a conformidade regulamentar com o presente regulamento ou, se for caso disso, com outra legislação aplicável da União e dos Estados-Membros; |
|
b) Para que os potenciais fornecedores permitam e facilitem a testagem e o desenvolvimento de soluções inovadoras relacionadas com sistemas de IA; |
|
c) A aprendizagem regulamentar num ambiente controlado. |
Alteração 495
Proposta de regulamento
Artigo 53 – n.º 1-F (novo)
|
|
Texto da Comissão |
Alteração |
|
1-F. As autoridades responsáveis pela criação devem fornecer orientações e supervisão no ambiente de testagem com vista a identificar os riscos – especialmente para os direitos fundamentais, a democracia e o Estado de direito, a saúde e a segurança e o ambiente –, testar e demonstrar medidas de atenuação dos riscos identificados e a sua eficácia e ainda assegurar o cumprimento dos requisitos do presente regulamento e, se for caso disso, de outra legislação da União e dos Estados-Membros; |
Alteração 496
Proposta de regulamento
Artigo 53 – n.º 1-F (novo)
|
|
Texto da Comissão |
Alteração |
|
1-G. As autoridades responsáveis pela criação devem fornecer orientações e supervisão aos potenciais fornecedores de ambientes de testagem que desenvolvam sistemas de IA de risco elevado sobre a forma de cumprir os requisitos estabelecidos no presente regulamento, de modo a que os sistemas de IA possam sair do ambiente de testagem em presunção de conformidade com os requisitos específicos do presente regulamento que foram avaliados no ambiente de testagem. Na medida em que o sistema de IA cumpre os requisitos ao sair do ambiente de testagem, presume-se que está em conformidade com o presente regulamento. A este respeito, as autoridades de fiscalização do mercado ou os organismos notificados, conforme aplicável, devem ter em conta os relatórios de saída criados pela autoridade responsável pela criação no contexto dos procedimentos de avaliação da conformidade ou dos controlos de fiscalização do mercado; |
Alteração 497
Proposta de regulamento
Artigo 53 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os Estados-Membros devem assegurar que, no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados, as autoridades nacionais de proteção de dados e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA. |
2. As autoridades responsáveis pela criação devem assegurar que no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados pessoais, as autoridades nacionais de proteção de dados ou – nos casos a que se refere o n.º 1-B – a AEPD e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA e são envolvidas no controlo desses aspetos do ambiente de testagem que supervisionam no âmbito dos respetivos poderes. |
Alteração 498
Proposta de regulamento
Artigo 53 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes, nomeadamente a nível local ou regional. A identificação de quaisquer riscos significativos para os direitos fundamentais, a democracia, o Estado de direito, a saúde e a segurança ou o ambiente durante o desenvolvimento e a testagem desses sistemas de IA deve conduzir à adoção imediata de medidas adequadas de atenuação. As autoridades competentes devem ter poderes para suspender temporária ou permanentemente o processo de testagem ou a participação no ambiente de testagem, se não for possível uma atenuação eficaz, e informar o gabinete de IA dessa decisão. |
Alteração 499
Proposta de regulamento
Artigo 53 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os participantes no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados-Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem. |
4. Os potenciais fornecedores no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados-Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem. No entanto, desde que o(s) potencial(ais) fornecedor(es) respeite(m) o plano específico referido no n.º 1-C e os termos e condições da sua participação e siga(m) de boa-fé as orientações dadas pelas autoridades responsáveis pela criação, as autoridades não devem aplicar multas por infrações ao presente regulamento. |
Alteração 500
Proposta de regulamento
Artigo 53 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. As autoridades competentes dos Estados-Membros que criaram ambientes de testagem da regulamentação da IA devem coordenar as suas atividades e cooperar no quadro do Comité Europeu para a Inteligência Artificial. Essas autoridades devem apresentar relatórios anuais ao Comité e à Comissão sobre os resultados da aplicação desse sistema, incluindo boas práticas, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. |
5. As autoridades responsáveis pela criação devem coordenar as suas atividades e cooperar no quadro do Serviço IA. |
Alteração 501
Proposta de regulamento
Artigo 53 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. As autoridades responsáveis pela criação devem informar o Serviço IA acerca da criação dum ambiente de testagem e podem solicitar apoio e orientação. O Serviço IA deve disponibilizar ao público e manter atualizada uma lista dos ambientes de testagem previstos e existentes, a fim de incentivar uma maior interação nos ambientes de testagem da regulamentação e na cooperação transnacional. |
Alteração 502
Proposta de regulamento
Artigo 53 – n.º 5-B (novo)
|
|
Texto da Comissão |
Alteração |
|
5-B. As autoridades responsáveis pela criação devem apresentar relatórios anuais ao Serviço IA e à Comissão – a menos que esta seja a única autoridade responsável pela criação – com início um ano após a criação do ambiente de testagem e, em seguida, todos os anos até à sua cessação, bem como um relatório final. Esses relatórios devem prestar informações sobre o progresso e os resultados da aplicação desses ambientes de testagem – incluindo boas práticas, incidentes, ensinamentos retirados e recomendações sobre a sua configuração – e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. Esses relatórios anuais ou resumos devem ser postos à disposição do público, na Internet. |
Alteração 503
Proposta de regulamento
Artigo 53 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. As modalidades e condições de funcionamento dos ambientes de testagem da regulamentação da IA, incluindo os critérios de elegibilidade e o procedimento de candidatura, seleção, participação e saída do ambiente de testagem, bem como os direitos e as obrigações dos participantes, devem ser estabelecidas em atos de execução. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
6. A Comissão deve desenvolver uma interface única e específica que contenha todas as informações pertinentes relacionadas com os ambientes de testagem, juntamente com um ponto de contacto único a nível da União, para interagir com os ambientes de testagem da regulamentação e permitir que as partes interessadas peçam informações às autoridades competentes, bem como para procurar orientações não vinculativas sobre a conformidade de produtos, serviços e modelos empresariais inovadores que integrem tecnologias de IA. |
|
A Comissão deve coordenar-se, proativamente, com as autoridades nacionais, regionais e também locais, se for caso disso. |
Alteração 504
Proposta de regulamento
Artigo 53 – n.º6-A (novo)
Artigo 53 – n.º6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
6-A. Para efeitos dos n.ºs 1 e 1-A, a Comissão deve desempenhar um papel complementar, permitindo que os Estados-Membros tirem partido dos seus conhecimentos especializados e, por outro lado, ajudem e forneçam conhecimentos e recursos técnicos aos Estados-Membros que procuram orientações sobre a criação e o funcionamento desses ambientes de testagem da regulamentação. |
Alteração 505
Proposta de regulamento
Artigo 53-A (novo)
Artigo 53-A – título
|
|
Texto da Comissão |
Alteração |
|
Artigo 53.º-A |
|
Modalidades e funcionamento dos ambientes de testagem da regulamentação da IA |
|
1. A fim de evitar a fragmentação em toda a União, a Comissão, em consulta com o Serviço IA, adota um ato delegado que especifique as modalidades de criação, desenvolvimento, execução, funcionamento e supervisão dos ambientes de testagem da regulamentação da IA, incluindo os critérios de elegibilidade e o procedimento de aplicação, seleção, participação e saída do ambiente de testagem, bem como os direitos e obrigações dos participantes com base no disposto no presente artigo; |
|
2. A Comissão fica habilitada a adotar atos delegados de acordo com o procedimento a que se refere o artigo 73.º, o mais tardar, 12 meses após a entrada em vigor do presente regulamento, e asseguram nomeadamente que: |
|
a) Os ambientes de testagem da regulamentação estão abertos a qualquer potencial fornecedor dum sistema de IA que o solicite e que preencha os critérios de elegibilidade e seleção. Os critérios de acesso ao ambiente de testagem da regulamentação são transparentes e equitativos e as autoridades responsáveis pela criação informam os requerentes da sua decisão no prazo de 3 meses a contar da apresentação do pedido; |
|
b) Os ambientes de testagem da regulamentação permitem um acesso amplo e equitativo e acompanham a procura de participação; |
|
c) O acesso aos ambientes de testagem da regulamentação da IA é gratuito para as PME e as empresas em fase de arranque, sem prejuízo dos custos excecionais que as autoridades responsáveis pela criação possam recuperar de forma justa e proporcionada; |
|
d) Os ambientes de testagem da regulamentação facilitam a participação de outros intervenientes relevantes no ecossistema de IA – como os organismos notificados e as organizações de normalização (PME, empresas em fase de arranque, empresas, inovadores, instalações de testagem e experimentação, laboratórios de investigação e experimentação e polos de inovação digital, centros de excelência, investigadores individuais) – a fim de permitir e facilitar a cooperação com os setores público e privado; |
|
e) Permitem que os potenciais fornecedores cumpram, num ambiente orientado, as obrigações de avaliação da conformidade previstas no presente regulamento ou a aplicação voluntária dos códigos de conduta a que se refere o artigo 69.º; |
|
f) Os procedimentos, processos e requisitos administrativos para a aplicação, seleção, participação e saída do ambiente de testagem são simples, facilmente compreensíveis e comunicados claramente – a fim de facilitar a participação das PME e das empresas em fase de arranque com capacidades jurídicas e administrativas limitadas – e são simplificados em toda a União para evitar a fragmentação; a participação num ambiente de testagem da regulamentação criado por um Estado-Membro, pela Comissão ou pela AEPD é mutuamente reconhecida e tem os mesmos efeitos jurídicos em toda a União; |
|
g) A participação no ambiente de testagem da regulamentação da IA é limitada a um período adequado à complexidade e dimensão do projeto; |
|
h) Os ambientes de testagem facilitam o desenvolvimento de ferramentas e de infraestruturas para testar, comparar, avaliar e explicar as dimensões dos sistemas de IA relevantes para os ambientes de testagem – como a exatidão, a robustez e a cibersegurança, bem como a atenuação dos riscos para os direitos fundamentais, o ambiente e a sociedade em geral. |
|
3. Os potenciais fornecedores nos ambientes de testagem, especialmente as PME e as empresas em fase de arranque, devem ter acesso facilitado a serviços de pré-implantação – como orientações sobre a aplicação do presente regulamento –, a outros serviços de valor acrescentado – como a ajuda em matéria de documentos de normalização, certificação e consulta – e a outras iniciativas do mercado único digital – como as instalações de testagem e experimentação, os polos digitais, os centros de excelência e as capacidades de avaliação comparativa da UE; |
Alteração 506
Proposta de regulamento
Artigo 54 – título
|
|
Texto da Comissão |
Alteração |
Tratamento adicional de dados pessoais para efeitos de desenvolvimento de certos sistemas de inteligência artificial de interesse público no ambiente de testagem da regulamentação da inteligência artificial |
Tratamento adicional de dados para efeitos de desenvolvimento de certos sistemas de inteligência artificial de interesse público no ambiente de testagem da regulamentação da inteligência artificial |
Alteração 507
Proposta de regulamento
Artigo 54 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. No ambiente de testagem da regulamentação da IA, os dados pessoais legalmente recolhidos para outras finalidades podem ser tratados com vista a desenvolver e testar certos sistemas de IA inovadores no ambiente de testagem nas seguintes condições: |
1. No ambiente de testagem da regulamentação da IA, os dados pessoais legalmente recolhidos para outras finalidades podem ser tratados apenas com vista a desenvolver e testar certos sistemas de IA no ambiente de testagem e quando forem preenchidas todas as seguintes condições: |
Alteração 508
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – parte introdutória
|
|
Texto da Comissão |
Alteração |
a) Os sistemas de IA inovadores devem ser desenvolvidos para salvaguarda de um interesse público substancial num ou mais dos seguintes domínios: |
a) Os sistemas de IA devem ser desenvolvidos para salvaguarda de um interesse público substancial num ou mais dos seguintes domínios: |
|
ii) Segurança pública e saúde pública, nomeadamente a deteção, o diagnóstico, a prevenção, o controlo e o tratamento de doenças; |
|
iii) Elevado nível de proteção e melhoria da qualidade do ambiente, a proteção da biodiversidade, a poluição e ainda a atenuação das alterações climáticas e a adaptação às mesmas; |
|
iii-A) Segurança e resiliência dos sistemas, infraestruturas críticas e redes de transportes. |
Alteração 509
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – subalínea i)
|
|
Texto da Comissão |
Alteração |
i) prevenção, investigação, deteção ou repressão de infrações penais, ou execução de sanções penais, incluindo a proteção contra ameaças à segurança pública e a prevenção das mesmas, sob o controlo e a responsabilidade das autoridades competentes. O tratamento obedece ao disposto na legislação do Estado-Membro ou da União, |
Suprimido |
Alteração 510
Proposta de regulamento
Artigo 54 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Existem mecanismos de controlo eficazes para identificar quaisquer riscos elevados para os direitos fundamentais dos titulares dos dados que possam surgir durante a experimentação no ambiente de testagem, bem como um mecanismo de resposta para atenuar prontamente esses riscos e, se necessário, interromper o tratamento; |
c) Existem mecanismos de controlo eficazes para identificar quaisquer riscos elevados para os direitos e as liberdades dos titulares dos dados – tal como referido no artigo 35.º do Regulamento (UE) 2016/679 e no artigo 35.º do Regulamento (UE) 2018/1725 – que possam surgir durante a experimentação no ambiente de testagem, bem como um mecanismo de resposta para atenuar prontamente esses riscos e, se necessário, interromper o tratamento; |
Alteração 511
Proposta de regulamento
Artigo 54 – n.º 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Todos os dados pessoais a tratar no contexto do ambiente de testagem se encontram num ambiente de tratamento de dados funcionalmente separado, isolado e protegido sob o controlo dos participantes, sendo apenas acessíveis a pessoas autorizadas; |
d) Todos os dados pessoais a tratar no contexto do ambiente de testagem se encontram num ambiente de tratamento de dados funcionalmente separado, isolado e protegido sob o controlo dos potenciais fornecedores, sendo apenas acessíveis a pessoas autorizadas; |
Alteração 512
Proposta de regulamento
Artigo 54 – n.º 1 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Nenhum tratamento de dados pessoais no contexto do ambiente de testagem dá origem a medidas ou decisões que afetem os titulares dos dados; |
f) Nenhum tratamento de dados pessoais no contexto do ambiente de testagem dá origem a medidas ou decisões que afetem os titulares dos dados, nem afeta a aplicação dos seus direitos previstos no direito da União em matéria de proteção de dados pessoais; |
Alteração 513
Proposta de regulamento
Artigo 54 – n.º 1 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Todos os dados pessoais tratados no contexto do ambiente de testagem são apagados assim que a participação no ambiente de testagem terminar ou que os dados pessoais atingirem o fim do respetivo período de conservação; |
g) Todos os dados pessoais tratados no contexto do ambiente de testagem são protegidos por meio de medidas técnicas e organizativas adequadas e apagados assim que a participação no ambiente de testagem terminar ou que os dados pessoais atingirem o fim do respetivo período de conservação; |
Alteração 514
Proposta de regulamento
Artigo 54 – n.º 1 – alínea h)
|
|
Texto da Comissão |
Alteração |
h) Os registos do tratamento de dados pessoais no contexto do ambiente de testagem são mantidos durante a participação no ambiente de testagem e pelo período de um ano após o respetivo termo, apenas enquanto forem necessários para efeitos exclusivos de cumprimento de obrigações em matéria de responsabilidade e documentação previstas no presente artigo ou em outra legislação da União ou dos Estados-Membros aplicável; |
h) Os registos do tratamento de dados pessoais no contexto do ambiente de testagem são mantidos durante a participação no ambiente de testagem; |
Alteração 515
Proposta de regulamento
Artigo 54 – n.º 1 – alínea j)
|
|
Texto da Comissão |
Alteração |
j) Uma breve síntese do projeto de IA desenvolvido no ambiente de testagem, incluindo os seus objetivos e resultados esperados, é publicada no sítio Web das autoridades competentes. |
j) Uma breve síntese do sistema de IA desenvolvido no ambiente de testagem, incluindo os seus objetivos, hipóteses e resultados esperados, é publicada no sítio Web das autoridades competentes. |
Alteração 516
Proposta de regulamento
Artigo 54-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 54.º-A |
|
Promoção da investigação e do desenvolvimento em matéria de IA como contributo para resultados benéficos para a sociedade e o ambiente |
|
1. Os Estados-Membros devem promover a investigação e o desenvolvimento de soluções de IA que contribuam para resultados benéficos para a sociedade e o ambiente, nomeadamente o desenvolvimento de soluções baseadas em IA com vista a aumentar a acessibilidade para pessoas com deficiências, combater as desigualdades socioeconómicas e cumprir as metas em matéria de sustentabilidade e ambiente, das seguintes formas: |
|
a) Proporcionando aos projetos pertinentes acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
|
b) Afetando financiamento público, nomeadamente de fundos da UE pertinentes, à investigação e ao desenvolvimento em matéria de IA como contributo para resultados benéficos para a sociedade e o ambiente; |
|
c) Organizando atividades de sensibilização específicas sobre a aplicação do presente regulamento, a disponibilidade de financiamento específico e os procedimentos de candidatura a esse financiamento, adaptadas às necessidades dos projetos em causa; |
|
d) Se for caso disso, criando canais específicos acessíveis, nomeadamente nos ambientes de testagem, para comunicação com os projetos com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
|
Os Estados-Membros devem apoiar a sociedade civil e as partes interessadas sociais na liderança ou participação nesses projetos. |
Alteração 517
Proposta de regulamento
Artigo 55 – título
|
|
Texto da Comissão |
Alteração |
Medidas para fornecedores e utilizadores de pequena dimensão |
Medidas para PME, empresas em fase de arranque e utilizadores |
Alteração 518
Proposta de regulamento
Artigo 55 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Proporcionar aos fornecedores de pequena dimensão e às empresas em fase de arranque acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
a) Proporcionar às PME e às empresas em fase de arranque estabelecidas na União acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
Alteração 519
Proposta de regulamento
Artigo 55 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Organizar atividades de sensibilização específicas sobre a aplicação do presente regulamento adaptadas às necessidades dos fornecedores e utilizadores de pequena dimensão; |
b) Organizar atividades de sensibilização específicas e de desenvolvimento de capacidades digitais aprofundadas sobre a aplicação do presente regulamento adaptadas às necessidades das PME, empresas em fase de arranque e utilizadores; |
Alteração 520
Proposta de regulamento
Artigo 55 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Se for caso disso, criar um canal específico para comunicação com fornecedores e utilizadores de pequena dimensão e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
c) Utilizar os canais específicos existentes e, se for caso disso, criar novos canais específicos para comunicação com as PME, as empresas em fase de arranque, os utilizadores e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
Alteração 521
Proposta de regulamento
Artigo 55 – n.º 1 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Promover a participação das PME e de outras partes interessadas relevantes no processo de desenvolvimento da normalização; |
Alteração 522
Proposta de regulamento
Artigo 55 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.º, reduzindo essas taxas proporcionalmente à sua dimensão e à dimensão do mercado. |
2. Os interesses e as necessidades específicas das PME, das empresas em fase de arranque e dos utilizadores devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.º, reduzindo essas taxas proporcionalmente à sua fase de desenvolvimento, à sua dimensão, à dimensão do mercado e à procura do mercado. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores e trabalhar com os Estados-Membros para baixar esses custos, onde possível. A Comissão deve apresentar informações sobre essas conclusões ao Parlamento Europeu e ao Conselho no âmbito do relatório sobre a avaliação e revisão do presente regulamento prevista no artigo 84.º, n.º 2. |
Alteração 523
Proposta de regulamento
Artigo 56 – Secção 1 – título
|
|
Texto da Comissão |
Alteração |
|
Título |
|
SECÇÃO 1 Disposições gerais relativas ao Serviço Europeu para a Inteligência Artificial |
Alteração 524
Proposta de regulamento
Artigo 56 – título
|
|
Texto da Comissão |
Alteração |
Criação do Comité Europeu para a Inteligência Artificial |
Criação do Serviço Europeu para a Inteligência Artificial |
Alteração 525
Proposta de regulamento
Artigo 56 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. É criado um Comité Europeu para a Inteligência Artificial (adiante designado por «Comité»). |
1. É criado o Serviço Europeu para a Inteligência Artificial (adiante designado por «Serviço IA»). O Serviço IA é um organismo independente da União, dotado de personalidade jurídica. |
Alteração 526
Proposta de regulamento
Artigo 56 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. O Comité presta aconselhamento e assistência à Comissão com vista a: |
2. O Serviço IA deve ter um secretariado e dispor de financiamento e pessoal adequados para o desempenho das suas funções nos termos do presente regulamento. |
Alteração 527
Proposta de regulamento
Artigo 56 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. O Serviço IA terá sede em Bruxelas. |
Alteração 528
Proposta de regulamento
Artigo 56-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 56.º-A |
|
Estrutura |
|
A estrutura administrativa e de gestão do Serviço IA é constituída por: |
|
a) Um conselho de administração, incluindo um presidente; |
|
b) Um secretariado gerido por um diretor executivo; |
|
c) Um fórum consultivo. |
Alteração 529
Proposta de regulamento
Artigo 56-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 56.º-B |
|
Funções do Serviço IA |
|
O Serviço IA exerce as seguintes funções: |
|
a) Apoiar, aconselhar e cooperar com os Estados-Membros, as autoridades nacionais de controlo, a Comissão e outras instituições, órgãos, organismos e agências da União no que diz respeito à aplicação do presente regulamento; |
|
b) Acompanhar e assegurar a aplicação eficaz e coerente do presente regulamento sem prejuízo das funções das autoridades nacionais de controlo; |
|
c) Contribuir para a coordenação entre as autoridades nacionais de controlo responsáveis pela aplicação do presente regulamento; |
|
d) Servir de mediador nos debates sobre desacordos graves que possam surgir entre as autoridades competentes no que diz respeito à aplicação do regulamento; |
|
e) Coordenar investigações conjuntas nos termos do artigo 66.º-A; |
|
f) Contribuir para uma cooperação eficaz com as autoridades competentes de países terceiros e com organizações internacionais; |
|
g) Recolher e partilhar os conhecimentos especializados e as boas práticas dos Estados-Membros e assistir as autoridades nacionais de controlo dos Estados-Membros e a Comissão no desenvolvimento dos conhecimentos especializados organizacionais e técnicos necessários para a aplicação do presente regulamento, nomeadamente facilitando a criação e manutenção dum grupo de peritos da União; |
|
h) Examinar – por sua própria iniciativa ou a pedido do seu conselho de administração ou da Comissão – questões relacionadas com a aplicação do presente regulamento e emitir pareceres, recomendações ou contributos escritos, nomeadamente no que diz respeito: |
|
i) às especificações técnicas ou normas existentes, ii) às orientações da Comissão, |
|
iii) aos códigos de conduta e respetiva aplicação, em estreita cooperação com a indústria e outras partes interessadas pertinentes, |
|
(iv) à eventual revisão do regulamento, à preparação dos atos delegados e a eventuais alinhamentos do presente regulamento com os atos jurídicos enumerados no anexo II, |
|
v) às tendências, nomeadamente a competitividade global europeia no domínio da inteligência artificial, a adoção da inteligência artificial na União, o desenvolvimento de competências digitais e as ameaças sistémicas emergentes relacionadas com a inteligência artificial, |
|
(vi) às orientações sobre a forma como o presente regulamento se aplica à tipologia em constante evolução das cadeias de valor da IA, designadamente sobre as implicações decorrentes em termos de responsabilização de todas as entidades envolvidas; |
|
i) Elaborar: |
|
i) um relatório anual que inclua uma avaliação da aplicação do presente regulamento, uma análise das comunicações de incidentes graves a que se refere o artigo 62.º e o funcionamento da base de dados referida no artigo 60.º, e |
|
ii) recomendações à Comissão sobre a categorização das práticas proibidas, os sistemas de IA de risco elevado referidos no anexo III, os códigos de conduta referidos no artigo 69.º e a aplicação dos princípios gerais enunciados no artigo 4.º-A; |
|
j) Assistir as autoridades na criação e desenvolvimento de ambientes de testagem da regulamentação e para facilitar a cooperação entre ambientes de testagem da regulamentação; |
|
k) Organizar reuniões com as agências e os organismos de governação da União cujas funções estejam relacionadas com a inteligência artificial e a aplicação do presente regulamento; |
|
l)Organizar consultas trimestrais com o fórum consultivo e, se for caso disso, consultas públicas com outras partes interessadas e tornar públicos os resultados dessas consultas no seu sítio Web; |
|
m) Promover a sensibilização e a compreensão do público relativamente aos benefícios, aos riscos, às garantias e aos direitos e obrigações associados à utilização de sistemas de IA; |
|
n) Facilitar o desenvolvimento de critérios comuns e um entendimento comum entre os operadores do mercado e as autoridades competentes dos conceitos relevantes previstos no presente regulamento; |
|
o) Assegurar o acompanhamento dos modelos de base e organizar um diálogo regular com os criadores de modelos de base no que respeita à sua conformidade, bem como aos sistemas de IA que utilizam esses modelos de IA; |
|
p) Fornecer orientações interpretativas sobre a forma como o Regulamento Inteligência Artificial se aplica à tipologia em constante evolução das cadeias de valor da IA e quais serão as implicações daí resultantes em termos de responsabilização de todas as entidades envolvidas ao abrigo dos diferentes cenários baseados no estado da técnica geralmente reconhecido, nomeadamente conforme refletido nas normas harmonizadas pertinentes; |
|
q) Proporcionar um controlo e acompanhamento específicos e institucionalizar o diálogo regular com os fornecedores de modelos de base sobre a conformidade destes últimos e dos sistemas de IA que utilizam esses modelos de IA com o artigo 28.º-B do presente regulamento, bem como sobre as boas práticas da indústria em matéria de autogovernação. Qualquer reunião desta natureza está aberta à participação e aos contributos das autoridades nacionais de controlo, dos organismos notificados e das autoridades de fiscalização do mercado; |
|
r) Elaborar e atualizar periodicamente orientações sobre os limiares que qualificam o treino dum modelo de base como uma grande sessão de treino, registar e acompanhar os casos conhecidos de grandes sessões de treino e publicar um relatório anual sobre o ponto da situação do desenvolvimento, da proliferação e da utilização de modelos de base, juntamente com opções políticas para enfrentar os riscos e oportunidades específicos dos modelos de base; |
|
s) Promover a literacia em matéria de IA, em conformidade com o artigo 4.º-B. |
Alteração 530
Proposta de regulamento
Artigo 56-C (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 56.º-C |
|
Responsabilização, independência e transparência |
|
1. O Serviço IA: |
|
a) Responde perante o Parlamento Europeu e o Conselho, nos termos do presente regulamento; |
|
b) Atua de forma independente no desempenho das suas funções ou no exercício dos seus poderes; |
|
c) Assegura um elevado nível de transparência das suas atividades e desenvolve boas práticas administrativas a este respeito. |
|
O Regulamento (CE) n.º 1049/2001 é aplicável aos documentos detidos pelo Serviço IA. |
Alteração 531
Proposta de regulamento
Artigo -57-A (novo) – SECÇÃO 2 – título
|
|
Texto da Comissão |
Alteração |
|
Título |
|
SECÇÃO 2: Conselho de administração |
Alteração 532
Proposta de regulamento
Artigo -57-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo -57.º-A |
|
Composição do conselho de administração |
|
1. O conselho de administração é composto pelos seguintes membros: |
|
a) Um representante da autoridade nacional de controlo de cada Estado-Membro; |
|
b) Um representante da Comissão; |
|
c) Um representante da Autoridade Europeia para a Proteção de Dados (AEPD); |
|
d) Um representante da Agência da União Europeia para a Cibersegurança (ENISA); |
|
e) Um representante da Agência dos Direitos Fundamentais da União Europeia (FRA). |
|
Cada representante duma autoridade nacional de controlo dispõe de um voto. Os representantes da Comissão, da AEPD, da ENISA e da FRA não têm direito de voto. Cada membro tem um suplente. A nomeação dos membros efetivos e suplentes do conselho de administração deve ter em conta a necessidade do equilíbrio de género. Os membros do conselho de administração e os respetivos suplentes são tornados públicos. |
|
2. Os membros efetivos e suplentes do conselho de administração não devem ter posições incompatíveis ou interesses comerciais em relação a qualquer assunto relacionado com a aplicação do presente regulamento. |
|
3. As regras aplicáveis às reuniões e votações do conselho de administração, bem como à nomeação e destituição do diretor executivo, são estabelecidas no regulamento interno a que se refere o artigo -57.º-B, alínea a). |
Alteração 533
Proposta de regulamento
Artigo -57-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo -57.º-B |
|
Funções do conselho de administração |
|
1. O conselho de administração tem as seguintes funções: |
|
a) Tomar decisões estratégicas sobre as atividades do Serviço IA e adotar o seu regulamento interno por maioria de dois terços dos seus membros; |
|
b) Aplicar o seu regulamento interno; |
|
c) Adotar o documento único de programação do Serviço IA e o seu relatório público anual e transmitir ambos ao Parlamento Europeu, ao Conselho, à Comissão e ao Tribunal de Contas; |
|
d) Aprovar o orçamento do Serviço IA; |
|
e) Nomear o diretor executivo e, se for caso disso, alargar ou encurtar o seu mandato ou exonerá-lo; |
|
f) Decidir sobre a criação das estruturas internas do Serviço IA e, se necessário, sobre a alteração dessas estruturas internas necessárias para o desempenho das funções do Serviço IA. |
Alteração 534
Proposta de regulamento
Artigo -57-C (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo -57.º-C |
|
Presidência do conselho de administração |
|
1. O conselho de administração elege um presidente e dois vice-presidentes de entre os seus membros com direito de voto, por maioria simples. |
|
2. O mandato do presidente e dos vice-presidentes é de quatro anos. Os mandatos do presidente e dos vice-presidentes pode ser renovado uma vez. |
Alteração 535
Proposta de regulamento
Artigo 57 – SECÇÃO 3 – título
|
|
Texto da Comissão |
Alteração |
Estrutura do Comité |
Secretariado |
Alteração 536
Proposta de regulamento
Artigo 57 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
1. As atividades do secretariado são geridas por um diretor executivo. Este responde perante o conselho de administração. Sem prejuízo dos poderes respetivos do conselho de administração e das instituições da União, o diretor executivo não solicita nem aceita instruções de quaisquer governos ou outros organismos. |
Alteração 537
Proposta de regulamento
Artigo 57 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
2. O Comité adota o seu regulamento interno por maioria simples dos membros que o compõem, após a autorização da Comissão. O regulamento interno deve conter igualmente os aspetos operacionais relacionados com o exercício das funções do Comité elencadas no artigo 58.º. O Comité pode constituir subgrupos consoante adequado para efeitos da análise de questões específicas. |
2. O diretor-executivo participa em audições sobre qualquer questão relacionada com as atividades do Serviço IA e presta informações sobre o exercício das funções do diretor-executivo quando convidado a fazê-lo pelo Parlamento Europeu ou pelo Conselho. |
Alteração 538
Proposta de regulamento
Artigo 57 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O Comité é presidido pela Comissão. A Comissão convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. A Comissão presta apoio administrativo e analítico às atividades do Comité nos termos com o presente regulamento. |
3. O diretor-executivo representa o Serviço IA, nomeadamente nas instâncias internacionais de cooperação no domínio da inteligência artificial. |
Alteração 539
Proposta de regulamento
Artigo 57 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
4. O secretariado presta ao conselho de administração e ao fórum consultivo o apoio analítico, administrativo e logístico necessário para o desempenho das funções do Serviço IA, nomeadamente: |
|
a) Executar as decisões, os programas e as atividades aprovados pelo conselho de administração; |
|
b) Preparar anualmente o projeto de documento único de programação, o projeto de orçamento, o relatório anual de atividades, os projetos de parecer e os projetos de posições do Serviço IA e apresentá-los ao conselho de administração; |
|
c) Proceder à coordenação com fóruns internacionais para a cooperação em matéria de inteligência artificial. |
Alteração 540
Proposta de regulamento
Capítulo 58 – SECÇÃO 4 – título
|
|
Texto da Comissão |
Alteração |
Funções do Comité |
Fórum consultivo |
Alteração 541
Proposta de regulamento
Artigo 58 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Ao prestar aconselhamento e assistência à Comissão nos termos do artigo 56.º, n.º 2, o Comité deve em particular: |
O fórum consultivo deve fornecer ao Serviço IA contributos das partes interessadas em questões relacionadas com o presente regulamento, em particular, no que diz respeito às funções previstas no artigo 56.º-B, alínea l). |
Alteração 542
Proposta de regulamento
Artigo 58 – parágrafo 2 (novo)
|
|
Texto da Comissão |
Alteração |
|
A composição do fórum consultivo deve representar uma seleção equilibrada de partes interessadas, incluindo a indústria, as empresas em fase de arranque, as PME, a sociedade civil, os parceiros sociais e o meio académico. A composição do fórum consultivo deve ser equilibrada no que diz respeito aos interesses comerciais e não comerciais e – dentro da categoria dos interesses comerciais – no que diz respeito às PME e a outras empresas. |
Alteração 543
Proposta de regulamento
Artigo 58 – parágrafo 3 (novo)
|
|
Texto da Comissão |
Alteração |
|
O conselho de administração nomeia os membros do fórum consultivo em conformidade com o procedimento de seleção previsto no regulamento interno do Serviço IA, tendo em conta a necessidade de transparência e em conformidade com os critérios definidos no n.º 2. |
Alteração 544
Proposta de regulamento
Artigo 58 – parágrafo 4 (novo)
|
|
Texto da Comissão |
Alteração |
|
O mandato dos membros do fórum consultivo é de dois anos, podendo ser prorrogado por um período não superior a quatro anos. |
Alteração 545
Proposta de regulamento
Artigo 58 – parágrafo 5 (novo)
|
|
Texto da Comissão |
Alteração |
|
O Comité Europeu de Normalização (CEN), o Comité Europeu de Normalização Eletrotécnica (CENELEC) e o Instituto Europeu de Normalização das Telecomunicações (ETSI) devem ser membros permanentes do fórum consultivo. O Centro Comum de Investigação deve ser membro permanente, sem direito de voto. |
Alteração 546
Proposta de regulamento
Artigo 58 – parágrafo 6 (novo)
|
|
Texto da Comissão |
Alteração |
|
O fórum consultivo aprova o seu regulamento interno. O fórum consultivo elege dois copresidentes de entre os seus membros, de acordo com os critérios estabelecidos no n.º 2. O mandato dos copresidentes é de dois anos, renovável uma vez. |
Alteração 547
Proposta de regulamento
Artigo 58 – parágrafo 7 (novo)
|
|
Texto da Comissão |
Alteração |
|
O fórum consultivo deve realizar reuniões, pelo menos, quatro vezes por ano. Ele pode convidar peritos e outras partes interessadas para as suas reuniões. O diretor executivo pode participar a título oficioso nas reuniões do fórum consultivo. |
Alteração 548
Proposta de regulamento
Artigo 58 – parágrafo 8 (novo)
|
|
Texto da Comissão |
Alteração |
|
No cumprimento das suas funções previstas no n.º 1, o fórum consultivo pode elaborar pareceres, recomendações e contribuições escritas. |
Alteração 549
Proposta de regulamento
Artigo 58 – parágrafo 9 (novo)
|
|
Texto da Comissão |
Alteração |
|
O fórum consultivo pode criar subgrupos permanentes ou temporários, conforme adequado para o exame de questões específicas relacionadas com os objetivos do presente regulamento. |
Alteração 550
Proposta de regulamento
Artigo 58 – parágrafo 10 (novo)
|
|
Texto da Comissão |
Alteração |
|
O fórum consultivo deve elaborar um relatório anual sobre as suas atividades. Esses relatórios são disponibilizados ao público. |
Alteração 551
Proposta de regulamento
Artigo 58-A – SECÇÃO 5 – título
|
|
Texto da Comissão |
Alteração |
|
Autoridades europeias em matéria de avaliação comparativa |
Alteração 552
Proposta de regulamento
Artigo 58-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 58.º-A |
|
Avaliação comparativa |
|
As autoridades europeias em matéria de avaliação comparativa referidas no artigo 15.º, n.º 1-A, e o Serviço IA devem, em estreita cooperação com os parceiros internacionais, desenvolver conjuntamente orientações e capacidades eficazes em termos de custos para medir e aferir os aspetos dos sistemas e componentes de IA e, em especial, dos modelos de base pertinentes para a conformidade e execução do presente regulamento, com base no estado da técnica geralmente reconhecido, nomeadamente conforme refletido nas normas harmonizadas pertinentes. |
Alteração 553
Proposta de regulamento
Artigo 59 – título
|
|
Texto da Comissão |
Alteração |
Designação das autoridades nacionais competentes |
Designação das autoridades nacionais de controlo |
Alteração 554
Proposta de regulamento
Artigo 59 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Cada Estado-Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
1. Cada Estado-Membro deve designar até... [três meses após a entrada em vigor do presente regulamento] uma autoridade nacional de controlo, que deve estar organizada de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
Alteração 555
Proposta de regulamento
Artigo 59 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Cada Estado-Membro deve designar uma autoridade nacional de controlo entre as autoridades nacionais competentes. A autoridade nacional de controlo deve atuar enquanto autoridade notificadora e autoridade de fiscalização do mercado, salvo se, por razões organizacionais e administrativas, o Estado-Membro tiver de designar mais do que uma autoridade. |
2. A autoridade nacional de controlo deve assegurar a aplicação e execução do presente regulamento. No que diz respeito aos sistemas de IA de risco elevado relacionados com produtos aos quais se apliquem atos jurídicos enunciados no anexo II, secção A, as autoridades competentes designadas ao abrigo desses atos jurídicos devem continuar a liderar os procedimentos administrativos. No entanto, na medida em que um caso envolva aspetos abrangidos exclusivamente pelo presente regulamento, essas autoridades competentes devem ser vinculadas pelas medidas relacionadas com esses aspetos emitidas pela autoridade nacional de controlo designada nos termos do presente regulamento. A autoridade nacional de controlo deve atuar enquanto autoridade de fiscalização do mercado. |
Alteração 556
Proposta de regulamento
Artigo 59 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os Estados-Membros devem informar a Comissão da designação ou designações e, se for caso disso, dos motivos que os levaram a designar mais do que uma autoridade. |
3. Os Estados-Membros devem disponibilizar ao público e comunicar ao Serviço IA e à Comissão, até [três meses após a entrada em vigor do presente regulamento], a designação da autoridade nacional de controlo e as informações sobre a forma de a contactar. A autoridade nacional de controlo atua como ponto de contacto único para o presente regulamento e deve poder ser contactada por meios de comunicação eletrónica. |
Alteração 557
Proposta de regulamento
Artigo 59 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os Estados-Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. |
4. Os Estados-Membros devem assegurar que a autoridade nacional de controlo dispõe dos recursos técnicos, financeiros e humanos adequados e das infraestruturas para exercer eficazmente as funções que lhe incumbem nos termos do presente regulamento. Em especial, a autoridade nacional de controlo deve dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, da proteção de dados pessoais, da cibersegurança, do direito da concorrência, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. Os Estados-Membros devem avaliar e, se necessário, atualizar anualmente os requisitos em matéria de competências e de recursos a que se refere o presente número. |
Alteração 558
Proposta de regulamento
Artigo 59 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Cada autoridade nacional de controlo exerce os seus poderes e desempenha as suas funções de forma independente, imparcial e objetiva. Os membros das autoridades nacionais de controlo – no desempenho das suas funções e no exercício dos poderes que lhe são atribuídos nos termos do presente regulamento – não solicitam nem recebem instruções de qualquer outro organismo e abstêm-se de qualquer ato incompatível com as suas funções. |
Alteração 559
Proposta de regulamento
Artigo 59 – n.º 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
4-B. As autoridades nacionais de controlo devem satisfazer os requisitos mínimos de cibersegurança estabelecidos para as entidades da administração pública identificadas como operadores de serviços essenciais nos termos da Diretiva (UE) 2022/2555. |
Alteração 560
Proposta de regulamento
Artigo 59 – n.º 4-C (novo)
|
|
Texto da Comissão |
Alteração |
|
4-C. No exercício das suas funções, a autoridade nacional de controlo atua em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 561
Proposta de regulamento
Artigo 59 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor das autoridades nacionais competentes, incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Comité para apreciação e eventuais recomendações. |
5. Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor da autoridade nacional de controlo, incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Serviço IA para apreciação e eventuais recomendações. |
Alteração 562
Proposta de regulamento
Artigo 59 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão facilita o intercâmbio de experiências entre as autoridades nacionais competentes. |
Suprimido |
Alteração 563
Proposta de regulamento
Artigo 59 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. As autoridades nacionais competentes podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente aos fornecedores de pequena dimensão. Sempre que as autoridades nacionais competentes pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as autoridades nacionais competentes ao abrigo dessa legislação da União devem ser consultadas, conforme adequado. Os Estados-Membros também podem criar um ponto de contacto central para a comunicação com os operadores. |
7. As autoridades nacionais de controlo podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente às PME e empresas em fase de arranque, tendo em conta as orientações e o aconselhamento do Serviço IA ou da Comissão. Sempre que as autoridades nacionais de controlo pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as orientações devem ser elaboradas em consulta com as autoridades nacionais competentes ao abrigo dessa legislação da União, conforme adequado. |
Alteração 564
Proposta de regulamento
Artigo 59 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo dos mesmos. |
8. Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo e a coordenação dos mesmos. |
Alteração 565
Proposta de regulamento
Artigo 59-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 59.º-A |
|
Mecanismo de cooperação entre as autoridades nacionais de controlo em casos que envolvam dois ou mais Estados-Membros |
|
1. Cada autoridade nacional de controlo desempenha as suas funções e exerce os poderes que lhe são conferidos pelo presente regulamento no território do seu próprio Estado-Membro. |
|
2. Se um caso envolver duas ou mais autoridades nacionais de controlo, considera-se que a autoridade de controlo principal é a autoridade nacional de controlo do Estado-Membro onde ocorreu a infração. |
|
3. Nos casos a que se refere o n.º 2, as autoridades de controlo pertinentes cooperam e trocam todas as informações relevantes em tempo útil. As autoridades nacionais de controlo devem cooperar para chegar a um consenso. |
Alteração 566
Proposta de regulamento
Título VII
|
|
Texto da Comissão |
Alteração |
VII BASE DE DADOS DA UE RELATIVA A SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO AUTÓNOMOS |
BASE DE DADOS DA UE RELATIVA A SISTEMAS DE INTELIGÊNCIA ARTIFICIAL DE RISCO ELEVADO |
Alteração 567
Proposta de regulamento
Artigo 60 – título
|
|
Texto da Comissão |
Alteração |
Base de dados da UE relativa a sistemas de inteligência artificial de risco elevado autónomos |
Base de dados da UE relativa a sistemas de inteligência artificial de risco elevado |
Alteração 568
Proposta de regulamento
Artigo 60 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. A Comissão, em colaboração com os Estados-Membros, cria e mantém uma base de dados da UE que contenha as informações referidas no n.º 2 relativas aos sistemas de IA de risco elevado a que se refere o artigo 6.º, n.º 2, que sejam registados em conformidade com o artigo 51.º. |
1. A Comissão, em colaboração com os Estados-Membros, cria e mantém uma base de dados pública da UE que contenha as informações referidas nos n.ºs 2 e 2-A relativas aos sistemas de IA de risco elevado a que se refere o artigo 6.º, n.º 2, que sejam registados em conformidade com o artigo 51.º. |
Alteração 569
Proposta de regulamento
Artigo 60 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Cabe aos fornecedores introduzir os dados enumerados no anexo VIII na base de dados da UE. A Comissão faculta-lhes apoio técnico e administrativo. |
2. Cabe aos fornecedores introduzir os dados enumerados no anexo VIII, Secção A, na base de dados da UE. |
Alteração 570
Proposta de regulamento
Artigo 60 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. A tarefa de introduzir os dados enumerados no anexo VIII, Secção B, na base de dados da UE cabe aos responsáveis pela implantação que sejam autoridades públicas ou instituições, órgãos, organismos ou agências da União, ou que atuem em seu nome, e aos responsáveis pela implantação que sejam empresas referidas no artigo 51.º, n.ºs 1-A e 1-B. |
Alteração 571
Proposta de regulamento
Artigo 60 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. As informações que constam da base de dados da UE devem estar acessíveis ao público. |
3. As informações que constam da base de dados da UE devem estar disponíveis gratuitamente ao público, ser conviviais, acessíveis, de fácil navegação e legíveis por máquina, contendo dados digitais estruturados com base num protocolo normalizado. |
Alteração 572
Proposta de regulamento
Artigo 60 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A base de dados da UE só pode conter dados pessoais se estes forem necessários para recolher e tratar informações em conformidade com o presente regulamento. Essas informações incluem os nomes e os contactos das pessoas singulares responsáveis pelos registos no sistema e com autoridade jurídica para representar o fornecedor. |
4. A base de dados da UE só pode conter dados pessoais se estes forem necessários para recolher e tratar informações em conformidade com o presente regulamento. Essas informações incluem os nomes e os contactos das pessoas singulares responsáveis pelos registos no sistema e com autoridade jurídica para representar o fornecedor ou o responsável pela implantação que seja uma autoridade pública ou uma instituição, órgão, organismo ou agência da União, ou que atue em seu nome, ou um responsável pela implantação que seja uma empresa referida no artigo 51.º, n.º 1-A, alínea b), e n.º 1-B. |
Alteração 573
Proposta de regulamento
Artigo 60 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. A Comissão é considerada responsável pelo tratamento de dados da base de dados da UE. Além disso, assegura aos fornecedores o apoio técnico e administrativo adequado. |
5. A Comissão é considerada responsável pelo tratamento de dados da base de dados da UE. Além disso, assegura aos fornecedores e responsáveis pela implantação o apoio técnico e administrativo adequado. |
|
A base de dados deve cumprir os requisitos de acessibilidade previstos no anexo I da Diretiva (UE) 2019/882. |
Alteração 574
Proposta de regulamento
Artigo 61 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O sistema de acompanhamento pós-comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos utilizadores ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2. |
2. O sistema de acompanhamento pós-comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos responsáveis pela implantação ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2. Se for caso disso, a fiscalização pós-comercialização deve incluir uma análise da interação com outros sistemas de IA, incluindo outros dispositivos e software, tendo em conta as regras aplicáveis em domínios como a proteção de dados, os direitos de propriedade intelectual e o direito da concorrência. |
Alteração 575
Proposta de regulamento
Artigo 61 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O sistema de monitorização pós-comercialização deve basear-se num plano de acompanhamento pós-comercialização. O plano de acompanhamento pós-comercialização deve fazer parte da documentação técnica referida no anexo IV. A Comissão adota um ato de execução com disposições pormenorizadas que estabeleçam um modelo para o plano de acompanhamento pós-comercialização e a lista de elementos a incluir no plano. |
3. O sistema de monitorização pós-comercialização deve basear-se num plano de acompanhamento pós-comercialização. O plano de acompanhamento pós-comercialização deve fazer parte da documentação técnica referida no anexo IV. A Comissão adota um ato de execução com disposições pormenorizadas que estabeleçam um modelo para o plano de acompanhamento pós-comercialização e a lista de elementos a incluir no plano até ... [12 meses após a data de entrada em vigor do presente regulamento]. |
Alteração 576
Proposta de regulamento
Artigo 62 – título
|
|
Texto da Comissão |
Alteração |
Comunicação de incidentes graves e anomalias |
Comunicação de incidentes graves |
Alteração 577
Proposta de regulamento
Artigo 62 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves ou anomalias desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger os direitos fundamentais às autoridades de fiscalização do mercado dos Estados-Membros onde esse incidente ou incumprimento ocorrer. |
1. Os fornecedores e – se os responsáveis pela implantação tiverem identificado um incidente grave – os responsáveis pela implantação de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger os direitos fundamentais às autoridades nacionais de controlo dos Estados-Membros onde esse incidente ou incumprimento ocorrer. |
Alteração 578
Proposta de regulamento
Artigo 62 – n.º 1 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Essa notificação deve ser efetuada imediatamente após o fornecedor ter determinado uma relação causal entre o sistema de IA e o incidente ou anomalia ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 15 dias após o fornecedor ter conhecimento do incidente grave ou da anomalia. |
Essa notificação deve ser efetuada sem demora indevida após o fornecedor ou o responsável pela implantação, conforme aplicável, ter determinado uma relação causal entre o sistema de IA e o incidente ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 72 horas após o fornecedor ou o responsável pela implantação, conforme aplicável, ter conhecimento do incidente grave. |
Alteração 579
Proposta de regulamento
Artigo 62 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. Depois de determinarem uma relação causal entre o sistema de IA e o incidente grave ou a probabilidade razoável dessa relação, os fornecedores devem adotar as medidas corretivas adequadas nos termos do artigo 21.º. |
Alteração 580
Proposta de regulamento
Artigo 62 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Após receção de uma notificação relacionada com um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade de fiscalização do mercado deve informar as autoridades ou os organismos públicos nacionais referidos no artigo 64.º, n.º 3. A Comissão elabora orientações específicas para facilitar o cumprimento das obrigações previstas no n.º 1. As referidas orientações devem ser publicadas, o mais tardar, 12 meses após a entrada em vigor do presente regulamento. |
2. Após receção de uma notificação relacionada com um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade nacional de controlo deve informar as autoridades ou os organismos públicos nacionais referidos no artigo 64.º, n.º 3. A Comissão elabora orientações específicas para facilitar o cumprimento das obrigações previstas no n.º 1. As referidas orientações devem ser publicadas até... [entrada em vigor do presente regulamento] e ser regularmente avaliadas. |
Alteração 581
Proposta de regulamento
Artigo 62 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. As autoridades nacionais de controlo devem tomar medidas adequadas no prazo de sete dias a contar da data em que recebem a notificação a que se refere o n.º 1. Caso a violação ocorra ou seja suscetível de ocorrer noutros Estados-Membros, a autoridade nacional de controlo deve notificar o Serviço IA e autoridades nacionais de controlo competentes desses Estados-Membros. |
Alteração 582
Proposta de regulamento
Artigo 62 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Relativamente aos sistemas de IA de risco elevado referidos no anexo III, ponto 5, alínea b), colocados no mercado ou colocados em serviço por fornecedores que sejam instituições de crédito regulamentadas pela Diretiva 2013/36/UE e relativamente aos sistemas de IA de risco elevado que sejam componentes de segurança de dispositivos ou sejam, eles próprios, dispositivos abrangidos pelos Regulamentos (UE) 2017/745 e (UE) 2017/746, a notificação de incidentes graves ou anomalias limita-se aos casos que constituam um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais. |
3. Relativamente aos sistemas de IA de risco elevado referidos no anexo III colocados no mercado ou colocados em serviço por fornecedores que estejam sujeitos a instrumentos legislativos da União que definem obrigações de comunicação de informações equivalentes às descritas no presente regulamento, a notificação de incidentes graves que constituam um incumprimento dos direitos fundamentais nos termos da legislação da União é transferida para a autoridade nacional de controlo. |
Alteração 583
Proposta de regulamento
Artigo 62 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. As autoridades nacionais de controlo notificam anualmente o Serviço IA sobre os incidentes graves que lhes tenham sido comunicados, em conformidade com o presente artigo. |
Alteração 584
Proposta de regulamento
Artigo 63 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. O Regulamento (UE) 2019/1020 é aplicável aos sistemas de IA abrangidos pelo presente regulamento. Contudo, para efeitos da execução efetiva do presente regulamento: |
1. O Regulamento (UE) 2019/1020 é aplicável aos sistemas de IA e modelos de base abrangidos pelo presente regulamento. Contudo, para efeitos da execução efetiva do presente regulamento: |
Alteração 585
Proposta de regulamento
Artigo 63 – n.º 1 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) As autoridades nacionais de controlo atuam como autoridades de fiscalização do mercado, ao abrigo do presente regulamento, e têm os mesmos poderes e obrigações que as autoridades de fiscalização do mercado, ao abrigo do Regulamento (UE) 2019/1020. |
Alteração 586
Proposta de regulamento
Artigo 63 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A autoridade nacional de controlo deve comunicar regularmente à Comissão os resultados das atividades de fiscalização do mercado pertinentes. A autoridade nacional de controlo deve comunicar, sem demora, à Comissão e às autoridades nacionais da concorrência adequadas quaisquer informações reveladas no decurso de atividades de fiscalização do mercado que possam ter interesse para efeitos de aplicação do direito da União relativo às regras de concorrência. |
2. A autoridade nacional de controlo deve comunicar anualmente à Comissão e ao Serviço IA os resultados das atividades de fiscalização do mercado pertinentes. A autoridade nacional de controlo deve comunicar, sem demora, à Comissão e às autoridades nacionais da concorrência adequadas quaisquer informações reveladas no decurso de atividades de fiscalização do mercado que possam ter interesse para efeitos de aplicação do direito da União relativo às regras de concorrência. |
Alteração 587
Proposta de regulamento
Artigo 63 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. A fim de assegurar a aplicação eficaz do presente regulamento, as autoridades nacionais de controlo podem: |
|
a) Efetuar inspeções no local e inspeções à distância, sem aviso prévio, dos sistemas de IA de risco elevado; |
|
b) Obter amostras relacionadas com sistemas de IA de risco elevado, nomeadamente através de inspeções à distância, da engenharia reversa dos sistemas de IA e da obtenção de provas para identificar a não conformidade. |
Alteração 588
Proposta de regulamento
Artigo 63 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. No respeitante aos sistemas de IA enumerados no anexo III, ponto 1, alínea a), contanto que sejam utilizados para efeitos de manutenção da ordem pública, e pontos 6 e 7, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680 ou do Regulamento (UE) 2016/679, ou as autoridades nacionais competentes que fiscalizam as atividades das autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo que colocam em serviço ou utilizam esses sistemas. |
5. No respeitante aos sistemas de IA que são utilizados para efeitos de manutenção da ordem pública, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680. |
Alteração 588
Proposta de regulamento
Artigo 63 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. No respeitante aos sistemas de IA enumerados no anexo III, ponto 1, alínea a), contanto que sejam utilizados para efeitos de manutenção da ordem pública, e pontos 6 e 7, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680 ou do Regulamento (UE) 2016/679, ou as autoridades nacionais competentes que fiscalizam as atividades das autoridades competentes em matéria de manutenção da ordem pública, imigração ou asilo que colocam em serviço ou utilizam esses sistemas. |
5. No respeitante aos sistemas de IA que são utilizados para efeitos de manutenção da ordem pública, os Estados-Membros devem designar como autoridades de fiscalização do mercado para efeitos do presente regulamento as autoridades de controlo no domínio da proteção de dados, designadas nos termos da Diretiva (UE) 2016/680. |
Alteração 589
Proposta de regulamento
Artigo 63 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. Os Estados-Membros devem facilitar a coordenação entre as autoridades de fiscalização do mercado designadas nos termos do presente regulamento e outras autoridades ou organismos nacionais competentes que supervisionam a aplicação da legislação de harmonização da União enunciada no anexo III ou de outra legislação da União que possa ser aplicável aos sistemas de IA de risco elevado referidos no anexo III. |
7. As autoridades nacionais de controlo designadas nos termos do presente regulamento devem articular-se com as outras autoridades ou organismos nacionais competentes que supervisionam a aplicação da legislação de harmonização da União enunciada no anexo III ou de outra legislação da União que possa ser aplicável aos sistemas de IA de risco elevado referidos no anexo III. |
Alteração 590
Proposta de regulamento
Artigo 64 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. No que toca ao acesso a dados e a documentação no contexto das suas atividades, as autoridades de fiscalização do mercado devem dispor de total acesso aos conjuntos de dados de treino, validação e teste utilizados pelo fornecedor, incluindo através de interfaces de programação de aplicações ou outros meios e ferramentas técnicas adequadas que possibilitem o acesso remoto. |
1. No contexto das suas atividades, e mediante pedido fundamentado, a autoridade nacional de controlo deve dispor de total acesso aos conjuntos de dados de treino, validação e teste utilizados pelo prestador ou, se for caso disso, pelo responsável pela implantação, que sejam pertinentes e estritamente necessários para efeitos do seu pedido, através de ferramentas técnicas adequadas. |
Alteração 591
Proposta de regulamento
Artigo 64 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, e mediante pedido fundamentado, deve ser concedido às autoridades de fiscalização do mercado o acesso ao código-fonte do sistema de IA. |
2. Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, depois de todas as outras formas razoáveis de verificação da conformidade terem sido esgotadas ou se revelarem insuficientes, e mediante pedido fundamentado, deve ser concedido à autoridade nacional de controlo o acesso aos modelos de treino e treinados do sistema de IA, incluindo os respetivos parâmetros do modelo pertinentes. Todas as informações obtidas em conformidade com o artigo 70.º são tratadas como informações confidenciais, estão sujeitas ao direito da União em vigor em matéria de proteção da propriedade intelectual e dos segredos comerciais e são suprimidas após a conclusão do inquérito para o qual as informações foram solicitadas. |
Alteração 592
Proposta de regulamento
Artigo 64 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. Os números 1 e 2 aplicam-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.º do Regulamento (UE) 2019/1020. |
Alteração 593
Proposta de regulamento
Artigo 64 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. As autoridades ou organismos públicos nacionais que supervisionam ou asseguram, no atinente à utilização de sistemas de IA de risco elevado referidos no anexo III, o respeito das obrigações previstas na legislação da União que protege os direitos fundamentais devem ter poderes para solicitar e aceder a toda a documentação elaborada ou mantida nos termos do presente regulamento, nos casos em que o acesso a essa documentação for necessário para o exercício das competências incluídas nos seus mandatos e dentro dos limites das respetivas jurisdições. A autoridade ou o organismo público competente deve informar a autoridade de fiscalização do mercado do Estado-Membro em causa de qualquer pedido dessa natureza. |
3. As autoridades ou organismos públicos nacionais que supervisionam ou asseguram, no atinente à utilização de sistemas de IA de risco elevado referidos no anexo III, o respeito das obrigações previstas na legislação da União que protege os direitos fundamentais devem ter poderes para solicitar e aceder a toda a documentação elaborada ou mantida nos termos do presente regulamento, nos casos em que o acesso a essa documentação for necessário para o exercício das competências incluídas nos seus mandatos e dentro dos limites das respetivas jurisdições. A autoridade ou o organismo público competente deve informar a autoridade nacional de controlo do Estado-Membro em causa de qualquer pedido dessa natureza. |
Alteração 594
Proposta de regulamento
Artigo 64 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. No prazo de três meses a contar da entrada em vigor do presente regulamento, cada Estado-Membro deve identificar as autoridades ou os organismos públicos referidos no n.º 3 e elaborar uma lista que esteja acessível ao público no sítio Web da autoridade nacional de controlo. Os Estados-Membros devem notificar a lista à Comissão e a todos os outros Estados-Membros e mantê-la atualizada. |
4. No prazo de três meses a contar da entrada em vigor do presente regulamento, cada Estado-Membro deve identificar as autoridades ou os organismos públicos referidos no n.º 3 e elaborar uma lista que esteja acessível ao público no sítio Web da autoridade nacional de controlo. As autoridades nacionais de controlo devem notificar a lista à Comissão, ao Serviço IA e a todas as outras autoridades nacionais de controlo e mantê-la atualizada. A Comissão deve publicar num sítio Web específico a lista de todas as autoridades competentes designadas pelos Estados-Membros em conformidade com o presente artigo. |
Alteração 595
Proposta de regulamento
Artigo 64 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Se a documentação referida no n.º 3 for insuficiente para determinar se ocorreu um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade ou o organismo público referido no n.º 3 pode apresentar um pedido fundamentado à autoridade de fiscalização do mercado para organizar a testagem do sistema de IA de risco elevado por recurso a meios técnicos. A autoridade de fiscalização do mercado deve organizar a testagem com a participação ativa da autoridade ou do organismo público requerente num prazo razoável após o pedido. |
5. Se a documentação referida no n.º 3 for insuficiente para determinar se ocorreu um incumprimento de obrigações impostas por legislação da União destinada a proteger os direitos fundamentais, a autoridade ou o organismo público referido no n.º 3 pode apresentar um pedido fundamentado à autoridade nacional de controlo para organizar a testagem do sistema de IA de risco elevado por recurso a meios técnicos. A autoridade nacional de controlo deve organizar a testagem com a participação ativa da autoridade ou do organismo público requerente num prazo razoável após o pedido. |
Alteração 596
Proposta de regulamento
Artigo 65 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Entende-se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.º, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde e a segurança ou para a proteção dos direitos fundamentais das pessoas. |
1. Entende-se por «sistema de IA que apresenta um risco» um sistema de IA suscetível de afetar negativamente a saúde, a segurança, os direitos fundamentais das pessoas em geral, nomeadamente no local de trabalho, a proteção dos consumidores, o ambiente, a segurança pública, a democracia, o Estado de Direito e outros interesses públicos protegidos pela legislação de harmonização da União aplicável, em medida superior à considerada razoável e aceitável tendo em conta o fim a que se destina ou as condições normais ou razoavelmente previsíveis em que decorrerá a utilização do sistema em causa, designadamente em termos de duração e, se for caso disso, os requisitos de colocação em serviço, instalação e manutenção que lhe são aplicáveis. |
Alteração 597
Proposta de regulamento
Artigo 65 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Se a autoridade de fiscalização do mercado de um Estado-Membro tiver motivos suficientes para considerar que um sistema de IA apresenta um risco, tal como descrito no n.º 1, deve avaliar o sistema de IA em causa no que diz respeito à conformidade do mesmo com todos os requisitos e obrigações previstos no presente regulamento. Se estiverem presentes riscos para a proteção dos direitos fundamentais, a autoridade de fiscalização do mercado também deve informar as autoridades ou os organismos públicos nacionais competentes referidos no artigo 64.º, n.º 3. Os operadores envolvidos devem cooperar na medida do necessário com as autoridades de fiscalização do mercado e as outras autoridades ou organismos públicos nacionais referidos no artigo 64.º, n.º 3. |
2. Se a autoridade nacional de controlo de um Estado-Membro tiver motivos suficientes para considerar que um sistema de IA apresenta um risco, tal como descrito no n.º 1, deve avaliar o sistema de IA em causa no que diz respeito à conformidade do mesmo com todos os requisitos e obrigações previstos no presente regulamento. Se estiverem presentes riscos para os direitos fundamentais, a autoridade nacional de controlo também deve informar imediatamente as autoridades ou os organismos públicos nacionais competentes referidos no artigo 64.º, n.º 3 e cooperar plenamente com estes. Se existirem motivos suficientes para se considerar que um sistema de IA explora, de forma deliberada ou não, as vulnerabilidades de um grupo de risco ou viola os seus direitos, a autoridade nacional de controlo tem o dever de investigar os objetivos de conceção, as entradas de dados, a seleção do modelo, a aplicação e os resultados do sistema de IA. Os operadores envolvidos devem cooperar na medida do necessário com as autoridades nacionais de controlo e as outras autoridades ou organismos públicos nacionais referidos no artigo 64.º, n.º 3; |
Alteração 598
Proposta de regulamento
Artigo 65.º – n.º 2 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Se, no decurso dessa avaliação, a autoridade de fiscalização do mercado verificar que o sistema de IA não cumpre os requisitos e as obrigações previstas no presente regulamento, deve exigir imediatamente ao operador correspondente que tome todas as medidas corretivas adequadas para assegurar a conformidade do sistema de IA, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
Se, no decurso dessa avaliação, a autoridade nacional de controlo ou, se for caso disso, a autoridade pública nacional a que se refere o artigo 64.º, n.º 3, verificar que o sistema de IA não cumpre os requisitos e as obrigações previstas no presente regulamento, deve exigir imediatamente ao operador correspondente que tome todas as medidas corretivas adequadas para assegurar a conformidade do sistema de IA, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco e, em qualquer caso, o mais tardar em 15 dias úteis ou no prazo fixado pela legislação de harmonização da União, conforme aplicável. |
Alteração 599
Proposta de regulamento
Artigo 65 – n.º 2 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
A autoridade de fiscalização do mercado deve informar desse facto o organismo notificado pertinente. O artigo 18.º do Regulamento (UE) 2019/1020 é aplicável às medidas referidas no segundo parágrafo. |
A autoridade nacional de controlo deve informar desse facto o organismo notificado pertinente. O artigo 18.º do Regulamento (UE) 2019/1020 é aplicável às medidas referidas no segundo parágrafo. |
Alteração 600
Proposta de regulamento
Artigo 65 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Se a autoridade de fiscalização do mercado considerar que a não conformidade não se limita ao respetivo território nacional, deve comunicar à Comissão e aos outros Estados-Membros os resultados da avaliação e as medidas que exigiu que o operador tomasse. |
3. Se a autoridade nacional de controlo considerar que a não conformidade não se limita ao respetivo território nacional, deve comunicar sem demora injustificada à Comissão, ao Serviço IA e às autoridades nacionais de controlo dos outros Estados-Membros os resultados da avaliação e as medidas que exigiu que o operador tomasse. |
Alteração 601
Proposta de regulamento
Artigo 65 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Se o operador de um sistema de IA não adotar as medidas corretivas adequadas no prazo referido no n.º 2, a autoridade de fiscalização do mercado deve tomar todas as medidas provisórias adequadas para proibir ou restringir a disponibilização do sistema de IA no respetivo mercado nacional, para o retirar do mercado ou para o recolher. A referida autoridade deve informar sem demora a Comissão e os outros Estados-Membros da adoção de tais medidas. |
5. Se o operador de um sistema de IA não adotar as medidas corretivas adequadas no prazo referido no n.º 2, a autoridade nacional de controlo deve tomar todas as medidas provisórias adequadas para proibir ou restringir a disponibilização do sistema de IA no respetivo mercado nacional ou a sua colocação em serviço, para o retirar do mercado ou para o recolher. A referida autoridade deve informar imediatamente a Comissão, o Serviço IA e as autoridades nacionais de controlo dos outros Estados-Membros da adoção de tais medidas. |
Alteração 602
Proposta de regulamento
Artigo 65 – n.º 6 – parte introdutória
|
|
Texto da Comissão |
Alteração |
6. A notificação referida no n.º 5 deve conter todas as informações disponíveis, em especial os dados necessários à identificação do sistema de IA não conforme, a origem do sistema de IA, a natureza da alegada não conformidade e o risco conexo, a natureza e a duração das medidas nacionais adotadas, bem como as observações do operador em causa. As autoridades de fiscalização do mercado devem, nomeadamente, indicar se a não conformidade se deve a uma ou várias das seguintes razões: |
6. A notificação referida no n.º 5 deve conter todas as informações disponíveis, em especial os dados necessários à identificação do sistema de IA não conforme, a origem do sistema de IA e da cadeia de abastecimento, a natureza da alegada não conformidade e o risco conexo, a natureza e a duração das medidas nacionais adotadas, bem como as observações do operador em causa. A autoridade nacional de controlo deve, nomeadamente, indicar se a não conformidade se deve a uma ou várias das seguintes razões: |
Alteração 603
Proposta de regulamento
Artigo 65 – n.º 6 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) O incumprimento, por parte do sistema de IA, dos requisitos estabelecidos no título III, capítulo 2; |
a) O incumprimento, por parte do sistema de IA de risco elevado, dos requisitos estabelecidos no presente regulamento; |
Alteração 604
Proposta de regulamento
Artigo 65 – n.º 6 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) Não observância da proibição das práticas de inteligência artificial referidas no artigo 5.º; |
Alteração 605
Proposta de regulamento
Artigo 65 – n.º 6 – alínea b-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-B) Não observância das disposições estabelecidas no artigo 52.º. |
Alteração 606
Proposta de regulamento
Artigo 65 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. As autoridades de fiscalização do mercado dos Estados-Membros, com exceção da autoridade de fiscalização do mercado do Estado-Membro que desencadeou o procedimento, devem informar sem demora a Comissão e os outros Estados-Membros das medidas tomadas e das informações adicionais de que disponham relativamente à não conformidade do sistema de IA em causa e, em caso de desacordo com a medida nacional notificada, das suas objeções. |
7. As autoridades nacionais de controlo dos Estados-Membros, com exceção da autoridade nacional de controlo do Estado-Membro que desencadeou o procedimento, devem informar sem demora a Comissão, o Serviço IA e os outros Estados-Membros das medidas tomadas e das informações adicionais de que disponham relativamente à não conformidade do sistema de IA em causa e, em caso de desacordo com a medida nacional notificada, das suas objeções. |
Alteração 607
Proposta de regulamento
Artigo 65 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. Se, no prazo de três meses a contar da receção das informações referidas no n.º 5, nem os Estados-Membros nem a Comissão tiverem levantado objeções à medida provisória tomada por um Estado-Membro, considera-se que a mesma é justificada. Esta disposição aplica-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.º do Regulamento (UE) 2019/1020. |
8. Se, no prazo de três meses a contar da receção das informações referidas no n.º 5, nem uma autoridade nacional de controlo de um Estado-Membro nem a Comissão tiverem levantado objeções à medida provisória tomada por uma autoridade nacional de controlo de um outro Estado-Membro, considera-se que a mesma é justificada. Esta disposição aplica-se sem prejuízo dos direitos processuais do operador em causa previstos no artigo 18.º do Regulamento (UE) 2019/1020. O prazo a que se refere a primeira frase do presente número é reduzido para 30 dias em caso de não observância da proibição das práticas de inteligência artificial a que se refere o artigo 5.º. |
Alteração 608
Proposta de regulamento
Artigo 65 – n.º 9
|
|
Texto da Comissão |
Alteração |
9. As autoridades de fiscalização do mercado de todos os Estados-Membros devem garantir que as medidas restritivas adequadas relativas ao produto em causa, como a retirada deste do respetivo mercado, sejam tomadas sem demora. |
9. As autoridades nacionais de controlo de todos os Estados-Membros devem garantir que as medidas restritivas adequadas relativas ao sistema de IA em causa, como a retirada deste do respetivo mercado, sejam tomadas sem demora. |
Alteração 609
Proposta de regulamento
Artigo 65 – n.º 9-A (novo)
|
|
Texto da Comissão |
Alteração |
|
9-A. As autoridades nacionais de controlo apresentam anualmente ao Serviço IA um relatório sobre o recurso a práticas proibidas e casos graves de utilização abusiva de sistemas de IA de risco elevado que possam ter ocorrido durante o ano em causa, bem como sobre as medidas tomadas em conformidade com o presente artigo, a fim de eliminar ou atenuar os riscos. |
Alteração 610
Proposta de regulamento
Artigo 66 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Se, nos três meses subsequentes à receção da notificação a que se refere o artigo 65.º, n.º 5, um Estado-Membro levantar objeções a uma medida tomada por outro Estado-Membro, ou a Comissão considerar que a medida é contrária ao direito da União, a Comissão procede sem demora a consultas com o Estado-Membro e o operador ou operadores em causa e avalia a medida nacional. Em função dos resultados dessa avaliação, a Comissão decide se a medida nacional é ou não justificada no prazo de nove meses a contar da notificação referida no artigo 65.º, n.º 5, e notifica essa decisão ao Estado-Membro em causa. |
1. Se, nos três meses subsequentes à receção da notificação a que se refere o artigo 65.º, n.º 5, ou 30 dias, em caso de não observância da proibição das práticas de inteligência artificial referidas no artigo 5.º, a autoridade nacional de controlo de um Estado-Membro levantar objeções a uma medida tomada por uma autoridade nacional de controlo de outro Estado-Membro, ou a Comissão considerar que a medida é contrária ao direito da União, a Comissão procede sem demora a consultas com a autoridade nacional de controlo do Estado-Membro e o operador ou operadores em causa e avalia a medida nacional. Em função dos resultados dessa avaliação, a Comissão decide se a medida nacional é ou não justificada no prazo de três meses, ou 60 dias, em caso de não observância da proibição das práticas de inteligência artificial referidas no artigo 5.º, a contar da notificação referida no artigo 65.º, n.º 5, e notifica essa decisão à autoridade nacional de controlo do Estado-Membro em causa. A Comissão informa todos as outras autoridades nacionais de controlo dessa decisão. |
Alteração 611
Proposta de regulamento
Artigo 66 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Se a medida nacional for considerada justificada, todos os Estados-Membros devem tomar as medidas necessárias para garantir que o sistema de IA não conforme seja retirado dos respetivos mercados, informando a Comissão das mesmas. Se a medida nacional for considerada injustificada, o Estado-Membro em causa deve revogá-la. |
2. Se a medida nacional for considerada justificada, todas as autoridades nacionais de controlo designadas nos termos do presente regulamento devem tomar as medidas necessárias para garantir que o sistema de IA não conforme seja retirado sem demora dos respetivos mercados, informando a Comissão e o Serviço IA em conformidade. Se a medida nacional for considerada injustificada, a autoridade nacional de controlo do Estado-Membro em causa deve revogá-la. |
Alteração 612
Proposta de regulamento
Artigo 66-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 66.º-A |
|
Investigações conjuntas |
|
Se uma autoridade nacional de controlo tiver razões para suspeitar que a infração cometida por um fornecedor ou um responsável pela implantação de um sistema de IA ou de um modelo de base de risco elevado ao presente regulamento constitui uma infração generalizada à escala da União, afeta ou é suscetível de afetar pelo menos 45 milhões de pessoas em mais do que um Estado-Membro, essa autoridade nacional de controlo deve informar o Serviço IA e pode solicitar às autoridades nacionais de controlo dos Estados-Membros em que essa infração tenha ocorrido que iniciem uma investigação conjunta. O Serviço IA assegura a coordenação central da investigação conjunta. Os poderes de investigação continuam a recair no âmbito das competências das autoridades nacionais de controlo. |
Alteração 613
Proposta de regulamento
Artigo 67 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, a autoridade de fiscalização do mercado de um Estado-Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, em plena cooperação com a autoridade publica nacional pertinente a que se refere o artigo 64.º, n.º 3, a autoridade nacional de controlo de um Estado-Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco grave para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais, o ambiente, a democracia e o Estado de direito ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco. |
Alteração 614
Proposta de regulamento
Artigo 67 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O fornecedor ou outros operadores envolvidos devem assegurar que a medida corretiva seja tomada no tocante a todos os sistemas de IA em causa que tenham disponibilizado no mercado da União no prazo fixado pela autoridade de fiscalização do mercado do Estado-Membro referido no n.º 1. |
2. O fornecedor ou outros operadores envolvidos devem assegurar que a medida corretiva seja tomada no tocante a todos os sistemas de IA em causa que tenham disponibilizado no mercado da União no prazo fixado pela autoridade nacional de controlo do Estado-Membro referido no n.º 1. |
Alteração 615
Proposta de regulamento
Artigo 67 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. Se o fornecedor ou outros operadores pertinentes não tomarem as medidas corretivas referidas no n.º 2 e se o sistema de IA continuar a apresentar um risco tal como referido no n.º 1, a autoridade nacional de controlo pode, como medida de último recurso, exigir ao operador em questão que retire o sistema de IA do mercado ou o recolha num prazo que seja razoável e proporcionado à natureza do risco. |
Alteração 616
Proposta de regulamento
Artigo 67 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O Estado-Membro deve informar imediatamente a Comissão e os restantes Estados-Membros deste facto. Essa notificação deve incluir todas as informações disponíveis, em particular os dados necessários à identificação do sistema de IA em causa, a origem e a cadeia de abastecimento do sistema de IA, a natureza do risco conexo e a natureza e duração das medidas nacionais adotadas. |
3. A autoridade nacional de controlo deve informar imediatamente a Comissão, o Serviço IA e as restantes autoridades nacionais de controlo desse facto. Essa notificação deve incluir todas as informações disponíveis, em particular os dados necessários à identificação do sistema de IA em causa, a origem e a cadeia de abastecimento do sistema de IA, a natureza do risco conexo e a natureza e duração das medidas nacionais adotadas. |
Alteração 617
Proposta de regulamento
Artigo 67 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A Comissão procede sem demora a consultas com os Estados-Membros e com o operador em causa e avalia as medidas nacionais adotadas. Em função dos resultados dessa avaliação, a Comissão decide se a medida é ou não justificada e, se necessário, propõe medidas adequadas. |
4. A Comissão, em consulta com o Serviço IA procede sem demora a consultas com as autoridades nacionais de controlo em questão e o operador em causa e avalia as medidas nacionais adotadas. Em função dos resultados dessa avaliação, o Serviço IA decide se a medida é ou não justificada e, se necessário, propõe medidas adequadas. |
Alteração 618
Proposta de regulamento
Artigo 67 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. A Comissão designa os Estados-Membros como destinatários da decisão. |
5. A Comissão, em consulta com o Serviço IA, comunica imediatamente a sua decisão às autoridades nacionais de controlo dos Estados-Membros em causa e aos operadores pertinentes. A Comissão informa igualmente todas as outras autoridades nacionais de supervisão da decisão. |
Alteração 619
Proposta de regulamento
Artigo 67 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. A Comissão aprova orientações para ajudar as autoridades nacionais competentes a identificar e corrigir, quando necessário, problemas semelhantes que surjam noutros sistemas de IA. |
Alteração 620
Proposta de regulamento
Artigo 68 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Se a autoridade de fiscalização do mercado de um Estado-Membro constatar um dos factos a seguir enunciados, deve exigir ao fornecedor em causa que ponha termo à não conformidade verificada: |
1. Se a autoridade nacional de controlo de um Estado-Membro constatar um dos factos a seguir enunciados, deve exigir ao fornecedor em causa que ponha termo à não conformidade verificada: |
Alteração 621
Proposta de regulamento
Artigo 68 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A marcação de conformidade foi aposta em violação do disposto no artigo 49.º; |
a) A marcação CE foi aposta em violação do disposto no artigo 49.º; |
Alteração 622
Proposta de regulamento
Artigo 68 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) A marcação de conformidade não foi aposta; |
b) A marcação CE não foi aposta; |
Alteração 623
Proposta de regulamento
Artigo 68 – n.º 1 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) A documentação técnica não está disponível; |
Alteração 624
Proposta de regulamento
Artigo 68 – n.º 1 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) O registo na base de dados da UE não foi efetuado; |
Alteração 625
Proposta de regulamento
Artigo 68 – n.º 1 – alínea e-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-C) No caso de o representante autorizado não ter sido nomeado. |
Alteração 626
Proposta de regulamento
Artigo 68 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Se a não conformidade referida no n.º 1 persistir, o Estado-Membro em causa deve tomar as medidas adequadas para restringir ou proibir a disponibilização no mercado do sistema de IA de risco elevado ou para garantir que o mesmo seja recolhido ou retirado do mercado. |
2. Se a não conformidade referida no n.º 1 persistir, a autoridade nacional de controlo do Estado-Membro em causa deve tomar as medidas adequadas e proporcionadas para restringir ou proibir a disponibilização no mercado do sistema de IA de risco elevado ou para garantir que o mesmo seja recolhido ou retirado do mercado sem demora. A autoridade nacional de controlo do Estado-Membro em causa deve informar imediatamente o Serviço IA da não observância e das medidas tomadas. |
Alteração 627
Proposta de regulamento
Artigo 68 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Vias de recurso |
Alteração 628
Proposta de regulamento
Artigo 68-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 68.º-A |
|
Direito de apresentar uma queixa junto de uma autoridade nacional de controlo |
|
1. Sem prejuízo de qualquer outra via de recurso administrativo ou judicial, qualquer pessoa singular ou grupo de pessoas singulares tem o direito de apresentar uma queixa junto de uma autoridade nacional de controlo, em especial no Estado-Membro em que reside habitualmente, em que trabalha ou em que se verificou a alegada infração, caso se considere que o sistema de IA que lhe diz respeito viola o presente regulamento. |
|
2. A autoridade nacional de controlo junto da qual tiver sido apresentada a queixa informa o queixoso do andamento e o resultado da queixa, inclusive sobre a possibilidade de um recurso judicial nos termos do artigo 78.º. |
Alteração 629
Proposta de regulamento
Artigo 68-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 68.º-B |
|
Direito a intentar ações judiciais efetivas contra uma autoridade nacional de controlo |
|
1. Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, todas as pessoas singulares ou coletivas têm direito a intentar ações judiciais efetivas contra as decisões juridicamente vinculativas das autoridades de controlo que lhes digam respeito. |
|
2. Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, todas as pessoas singulares ou coletivas têm o direito a intentar ações judiciais efetivas, se, no prazo de três meses, a autoridade nacional de controlo competente nos termos do artigo 59.º não tratar uma queixa ou não informar a pessoa em causa da evolução ou do resultado da queixa apresentada nos termos do artigo 68.º-A. |
|
3. As ações de recurso contra uma autoridade nacional de controlo são deduzidas perante os tribunais do Estado-Membro em cujo território se encontra estabelecida a autoridade de controlo em causa. |
|
4. Quando são deduzidas ações de recurso contra uma decisão de uma autoridade nacional de controlo que tenha sido precedida de um parecer ou de uma decisão da Comissão no âmbito do Procedimento de salvaguarda da União, a autoridade de controlo transmite esse parecer ou decisão ao tribunal. |
Alteração 630
Proposta de regulamento
Artigo 68-C (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 68.º-C |
|
Direito a uma explicação a respeito de uma decisão individual |
|
1. Qualquer pessoa afetada sujeita a uma decisão tomada por um responsável pela implantação com base num resultado de um sistema de IA de risco elevado que produza efeitos jurídicos ou que incida de modo semelhante e significativo sobre a pessoa em causa, de tal forma que esta considere ter um impacto negativo na sua saúde, segurança, direitos fundamentais, bem-estar socioeconómico ou quaisquer outros direitos decorrentes das obrigações estabelecidas no presente regulamento, tem o direito de solicitar ao responsável pela implantação uma explicação clara e significativa, nos termos do artigo 13.º, n.º 1, sobre o papel do sistema de IA no processo de tomada de decisão, os principais parâmetros da decisão tomada e os dados de entrada conexos. |
|
2. O n.º 1 não se aplica à utilização de sistemas de IA para os quais decorram do direito da União ou do direito nacional exceções ou restrições à obrigação estabelecida ao abrigo do no n.º 1, conquanto essas exceções ou restrições respeitem a essência dos direitos e liberdades fundamentais e constituam uma medida necessária e proporcionada numa sociedade democrática. |
|
3. O presente artigo aplica-se sem prejuízo dos artigos 13.º, 14.º, 15.º e 22.º do Regulamento (UE) 2016/679. |
Alteração 631
Proposta de regulamento
Artigo 68-D (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 68.º-D |
|
Alteração da Diretiva (UE) 2020/1828 |
|
Ao anexo I da Diretiva (UE) 2020/1828 do Parlamento Europeu e do Conselho1-A, é aditado o seguinte ponto: |
|
«(67.º-A) Regulamento xxxx/xxxx do Parlamento Europeu e do Conselho [que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União (JO L ...)]». |
|
_________________ |
|
1-ADiretiva (UE) 2020/1828 do Parlamento Europeu e do Conselho, de 25 de novembro de 2020, relativa a ações coletivas para proteção dos interesses coletivos dos consumidores e que revoga a Diretiva 2009/22/CE (JO L 409 de 4.12.2020, p. 1). |
Alteração 632
Proposta de regulamento
Artigo 68-E (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 68.º- E |
|
Denúncia de infrações e proteção dos autores da denúncia |
|
Aplica-se à denúncia de infrações ao presente regulamento e à proteção das pessoas que denunciam essas infrações a Diretiva (UE) 2019/1937 do Parlamento Europeu e do Conselho. |
Alteração 633
Proposta de regulamento
Artigo 69 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. A Comissão e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas. |
1. A Comissão, o Serviço IA e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta – designadamente quando forem elaborados para demonstrar a forma como os sistemas de IA respeitam os princípios definidos no artigo 4.º-A, podendo assim ser considerados de confiança – destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas. |
Alteração 634
Proposta de regulamento
Artigo 69 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A Comissão e o Comité devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária a sistemas de IA de requisitos relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento, com base em objetivos claros e indicadores-chave de desempenho que permitam medir a consecução desses objetivos. |
2. Os códigos de conduta destinados a fomentar a conformidade voluntária com os princípios subjacentes a sistemas de IA de confiança devem, em especial: |
|
a) Visar dotar o seu pessoal e outras pessoas envolvidas no funcionamento e utilização de sistemas de IA de um nível de literacia em matéria de IA suficiente para respeitar esses princípios; |
|
b) Avaliar em que medida os seus sistemas de IA podem afetar pessoas ou grupos de pessoas vulneráveis – incluindo crianças, idosos, migrantes e pessoas com deficiência – ou se podem ser adotadas medidas adicionais para aumentar a acessibilidade ou apoiar doutra forma tais pessoas ou grupos de pessoas; |
|
c) Ponderar de que forma a utilização dos seus sistemas de IA pode ter impacto ou aumentar a diversidade, o equilíbrio de género e a igualdade; |
|
d) Considerar se os seus sistemas de IA podem ser utilizados de um modo passível de, direta ou indiretamente, reforçar residual ou substancialmente enviesamentos ou desigualdades existentes; |
|
e) Examinar a necessidade e a pertinência de criar equipas de desenvolvimento diversas, com vista a garantir uma conceção inclusiva dos seus sistemas; |
|
f) Ponderar cuidadosamente se os seus sistemas podem ter um impacto social negativo, nomeadamente no que toca às instituições políticas e aos processos democráticos; |
|
g) Avaliar de que forma os sistemas de IA podem contribuir para a sustentabilidade ambiental e, em especial, os compromissos da União ao abrigo do Pacto Ecológico Europeu e da Declaração Europeia sobre os Direitos e Princípios Digitais. |
Alteração 635
Proposta de regulamento
Artigo 69 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas, incluindo investigadores científicos, e das respetivas organizações representativas, em especial, os sindicatos e as organizações de consumidores. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. Os prestadores que adotem códigos de conduta designam, pelo menos, uma pessoa singular responsável pelo controlo interno. |
Alteração 636
Proposta de regulamento
Artigo 69 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A Comissão e o Comité devem ter em conta as necessidades e os interesses específicos dos fornecedores de pequena dimensão e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta. |
4. A Comissão e o Serviço IA devem ter em conta as necessidades e os interesses específicos das PME e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta. |
Alteração 637
Proposta de regulamento
Artigo 70 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. As autoridades nacionais competentes e os organismos notificados envolvidos na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções e atividades de modo que protejam, em especial: |
1. A Comissão, as autoridades nacionais competentes e os organismos notificados, o Serviço IA e qualquer outra pessoa singular ou coletiva envolvida na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções e atividades de modo que protejam, em especial: |
Alteração 638
Proposta de regulamento
Artigo 70 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Os direitos de propriedade intelectual e as informações comerciais confidenciais ou segredos comerciais de uma pessoa singular ou coletiva, incluindo o código-fonte, exceto nos casos a que se refere o artigo 5.º da Diretiva 2016/943 relativa à proteção de know-how e de informações comerciais confidenciais (segredos comerciais) contra a sua aquisição, utilização e divulgação ilegais; |
a) Os direitos de propriedade intelectual e as informações comerciais confidenciais ou segredos comerciais de uma pessoa singular ou coletiva, em conformidade com as disposições da Diretiva 2004/48/EC e da Diretiva 2016/943/CE, incluindo o código-fonte, exceto nos casos a que se refere o artigo 5.º da Diretiva 2016/943 relativa à proteção de know-how e de informações comerciais confidenciais (segredos comerciais) contra a sua aquisição, utilização e divulgação ilegais; |
Alteração 639
Proposta de regulamento
Artigo 70 – n.º 1 – alínea b-A) (nova)
Artigo 70 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
|
b-A) Interesses públicos e nacionais em matéria de segurança; |
Alteração 640
Proposta de regulamento
Artigo 70 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. As autoridades envolvidas na aplicação do presente regulamento nos termos do n.º 1 devem limitar a quantidade de dados solicitados para efeitos de divulgação aos dados estritamente necessários à perceção do risco e à avaliação desse risco. As referidas autoridades devem apagar os dados assim que deixem de ser necessários para a finalidade para a qual foram solicitados. Devem adotar medidas organizativas, técnicas e em matéria de cibersegurança adequadas e eficazes para proteger a segurança e a confidencialidade das informações e dos dados obtidos no exercício das suas atribuições e atividades; |
Alteração 641
Proposta de regulamento
Artigo 70 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Sem prejuízo do n.º 1, no caso de sistemas de IA de risco elevado referidos no anexo III, pontos 1, 6 e 7, utilizados por autoridades competentes em matéria de manutenção da ordem pública, de imigração ou de asilo, as informações trocadas numa base confidencial entre as autoridades nacionais competentes e entre as autoridades nacionais competentes e a Comissão não podem ser divulgadas sem consultar previamente a autoridade nacional competente de origem e o utilizador, quando tal divulgação prejudicar interesses públicos e nacionais em matéria de segurança. |
2. Sem prejuízo dos n.ºs 1 e 1-A , no caso de sistemas de IA de risco elevado referidos no anexo III, pontos 1, 6 e 7, utilizados por autoridades competentes em matéria de manutenção da ordem pública, de imigração ou de asilo, as informações trocadas numa base confidencial entre as autoridades nacionais competentes e entre as autoridades nacionais competentes e a Comissão não podem ser divulgadas sem consultar previamente a autoridade nacional competente de origem e o responsável pela implantação, quando tal divulgação prejudicar a segurança pública ou nacional. |
Alteração 642
Proposta de regulamento
Artigo 70 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O disposto nos n.os 1 e 2 não afeta os direitos e obrigações da Comissão, dos Estados-Membros e dos organismos notificados no que se refere ao intercâmbio de informações e à divulgação de avisos, nem o dever de informação que incumbe às partes em causa no âmbito do direito penal dos Estados-Membros. |
3. O disposto nos n.os 1, 1-A e 2 não afeta os direitos e obrigações da Comissão, dos Estados-Membros e dos organismos notificados no que se refere ao intercâmbio de informações e à divulgação de avisos, nem o dever de informação que incumbe às partes em causa no âmbito do direito penal dos Estados-Membros. |
Alteração 643
Proposta de regulamento
Artigo 70 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A Comissão e os Estados-Membros podem, quando necessário, trocar informações confidenciais com autoridades reguladoras de países terceiros com as quais tenham celebrado acordos de confidencialidade bilaterais ou multilaterais desde que garantam um nível adequado de confidencialidade. |
4. A Comissão e os Estados-Membros podem – quando estritamente necessário e no respeito das disposições pertinentes estabelecidas nos acordos internacionais e comerciais – trocar informações confidenciais com autoridades reguladoras de países terceiros com as quais tenham celebrado acordos de confidencialidade bilaterais ou multilaterais desde que garantam um nível adequado de confidencialidade. |
Alteração 644
Proposta de regulamento
Artigo 71 – título
|
|
Texto da Comissão |
Alteração |
Sanções e coimas |
Sanções |
Alteração 645
Proposta de regulamento
Artigo 71 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções, incluindo coimas, aplicáveis em caso de infração ao presente regulamento e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente. As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter especialmente em conta os interesses dos fornecedores de pequena dimensão e das empresas em fase de arranque e a respetiva viabilidade económica. |
1. Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções aplicáveis em caso de infração ao presente regulamento por parte de qualquer operador e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente e está em consonância com as orientações emitidas pela Comissão e o Serviço IA em conformidade com o artigo 82.º-B. As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter em conta os interesses das PME e das empresas em fase de arranque e a respetiva viabilidade económica; |
Alteração 646
Proposta de regulamento
Artigo 71 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os Estados-Membros devem notificar a Comissão dessas regras e dessas medidas e também, sem demora, de qualquer alteração ulterior das mesmas. |
2. Os Estados-Membros devem notificar a Comissão e o Gabinete, até [12 meses a contar da data de entrada em vigor do presente regulamento], dessas regras e dessas medidas e também, sem demora, de qualquer alteração ulterior. |
Alteração 647
Proposta de regulamento
Artigo 71 – n.º 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. Ficam sujeitas a coimas até 30 000 000 EUR ou, se o infrator for uma empresa, até 6 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado, as seguintes infrações: |
3. A não observância da proibição das práticas de inteligência artificial referidas no artigo 5.º fica sujeita a coimas até 40 000 000 EUR ou, se o infrator for uma empresa, até 7 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado: |
Alteração 648
Proposta de regulamento
Artigo 71 – n.º 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Incumprimento da proibição das práticas de inteligência artificial referidas no artigo 5.º; |
Suprimido |
Alteração 649
Proposta de regulamento
Artigo 71 – n.º 3 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Não conformidade do sistema de IA com os requisitos estabelecidos no artigo 10.º. |
Suprimido |
Alteração 650
Proposta de regulamento
Artigo 71 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. A não conformidade do sistema de IA com os requisitos estabelecidos nos artigos 10.º e 13.º fica sujeita a coimas até 20 000 000 EUR ou, se o infrator for uma empresa, até 4 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado. |
Alteração 651
Proposta de regulamento
Artigo 71 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.º e 10.º, fica sujeita a coimas até 20 000 000 EUR ou, se o infrator for uma empresa, até 4 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado. |
4. A não conformidade do sistema de IA ou do modelo de base com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.º, 10.º e 13.º, fica sujeita a coimas até 10 000 000 EUR ou, se o infrator for uma empresa, até 2 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado; |
Alteração 652
Proposta de regulamento
Artigo 71 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. O fornecimento de informações incorretas, incompletas ou enganadoras aos organismos notificados e às autoridades nacionais competentes em resposta a um pedido fica sujeito a coimas até 10 000 000 EUR ou, se o infrator for uma empresa, até 2 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado. |
5. O fornecimento de informações incorretas, incompletas ou enganadoras aos organismos notificados e às autoridades nacionais competentes em resposta a um pedido fica sujeito a coimas até 5 000 000 EUR ou, se o infrator for uma empresa, até 1 % do seu volume de negócios anual a nível mundial no exercício anterior, consoante o que for mais elevado. |
Alteração 653
Proposta de regulamento
Artigo 71 – n.º 6 – parte introdutória
|
|
Texto da Comissão |
Alteração |
6. A decisão relativa ao montante da coima a aplicar em cada caso deve ter em conta todas as circunstâncias pertinentes da situação específica, bem como os seguintes elementos: |
6. As coimas podem ser impostas em complemento ou em substituição de medidas não pecuniárias, como ordens ou avisos. A decisão relativa ao montante da coima a aplicar em cada caso deve ter em conta todas as circunstâncias pertinentes da situação específica, bem como os seguintes elementos: |
Alteração 654
Proposta de regulamento
Artigo 71 – n.º 6 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A natureza, a gravidade e a duração da infração e das suas consequências; |
a) A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA, bem como, se for caso disso, o número de pessoas afetadas e o nível de danos por elas sofridos; |
Alteração 655
Proposta de regulamento
Artigo 71 – n.º 6 - alínea b)
|
|
Texto da Comissão |
Alteração |
b) Se outras autoridades de fiscalização do mercado já aplicaram coimas ao mesmo operador pela mesma infração; |
b) Se outras autoridades nacionais de controlo de um ou mais Estados-Membros já aplicaram coimas ao mesmo operador pela mesma infração; |
Alteração 656
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) A dimensão e quota-parte de mercado do operador que cometeu a infração. |
c) A dimensão e o volume anual de negócios do operador que cometeu a infração. |
Alteração 657
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) As medidas tomadas pelo fornecedor para atenuar os prejuízos ou danos sofridos pelas pessoas afetadas; |
Alteração 658
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-B) O caráter intencional ou negligente da infração; |
Alteração 659
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-C) O grau de cooperação com as autoridades nacionais competentes, a fim de sanar a infração e atenuar os seus eventuais efeitos adversos; |
Alteração 660
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-D) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-D) O grau de responsabilidade do operador tendo em conta as medidas técnicas e organizacionais que implementou; |
Alteração 661
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-E) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-E) A forma como as autoridades nacionais competentes tomaram conhecimento da infração, em especial se foram notificadas pelo operador, e em caso afirmativo, em que medida o operador notificou a infração; |
Alteração 662
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-F) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-F) A observância dos códigos de conduta ou mecanismos de certificação aprovados; |
Alteração 663
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-G) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-G) Anteriores infrações pertinentes cometidas pelo operador; |
Alteração 664
Proposta de regulamento
Artigo 71 – n.º 6 – alínea c-H) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-H) Toda e qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso concreto. |
Alteração 665
Proposta de regulamento
Artigo 71 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. Cada Estado-Membro deve definir regras que permitam determinar se e em que medida podem ser aplicadas coimas às autoridades e organismos públicos estabelecidos nesse Estado-Membro. |
7. Cada Estado-Membro deve definir regras em matéria de coimas a aplicar às autoridades e organismos públicos estabelecidos nesse Estado-Membro; |
Alteração 666
Proposta de regulamento
Artigo 71 – n.º 8-A (novo)
|
|
Texto da Comissão |
Alteração |
|
8-A. As sanções a que se refere o presente artigo, bem como os custos de contencioso e pedidos de indemnização conexos, não podem ser objeto de cláusulas contratuais nem de outro tipo de acordo de partilha de responsabilidades entre os fornecedores e os distribuidores, importadores, utilizadores ou outros terceiros; |
Alteração 667
Proposta de regulamento
Artigo 71 – n.º 8-B (novo)
|
|
Texto da Comissão |
Alteração |
|
8-B. As autoridades nacionais de controlo informam anualmente o Serviço IA das coimas que tenham aplicado durante esse ano, em conformidade com o presente artigo. |
Alteração 668
Proposta de regulamento
Artigo 71 – n.º 8-C (novo)
|
|
Texto da Comissão |
Alteração |
|
8-C. O exercício dos poderes, pelas autoridades competentes, nos termos do presente artigo, deverá estar sujeito a garantias processuais adequadas, em conformidade com o direito da União e o direito nacional, nomeadamente um recurso judicial efetivo e um processo equitativo; |
Alteração 669
Proposta de regulamento
Artigo 72 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A natureza, a gravidade e a duração da infração e das suas consequências; |
a) A natureza, a gravidade e a duração da infração e das suas consequências, tendo em conta a finalidade do sistema de IA em causa, bem como o número de pessoas afetadas e a extensão dos danos por elas sofridos e qualquer infração anterior relevante; |
Alteração 670
Proposta de regulamento
Artigo 72 – n.º 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Toda e qualquer ação tomada pela instituição, órgão ou organismo da União para atenuar os danos sofridos pelas pessoas afetadas; |
Alteração 671
Proposta de regulamento
Artigo 72 – n.º 1 – alínea a-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-B) O grau de responsabilidade da instituição, órgão ou organismo da União, tendo em conta as medidas técnicas e organizacionais que implementaram; |
Alteração 672
Proposta de regulamento
Artigo 72 – n.º 1 - alínea b)
|
|
Texto da Comissão |
Alteração |
b) A cooperação com a Autoridade Europeia para a Proteção de Dados no sentido de corrigir a infração e atenuar os possíveis efeitos adversos da mesma, nomeadamente o cumprimento de eventuais medidas previamente impostas pela Autoridade Europeia para a Proteção de Dados contra a instituição, órgão ou organismo da União em causa relativamente à mesma matéria; |
b) O grau de cooperação com a Autoridade Europeia para a Proteção de Dados no sentido de corrigir a infração e atenuar os possíveis efeitos adversos da mesma, nomeadamente o cumprimento de eventuais medidas previamente impostas pela Autoridade Europeia para a Proteção de Dados contra a instituição, órgão ou organismo da União em causa relativamente à mesma matéria; |
Alteração 673
Proposta de regulamento
Artigo 72 – n.º 1 – alínea c-A) (nova)
Artigo 72 – n.º 1 – alínea d-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) A forma como a Autoridade Europeia para a Proteção de Dados tomou conhecimento da infração, em especial se a instituição ou o órgão da União a notificaram e, em caso afirmativo, em que medida o fizeram; |
Alteração 674
Proposta de regulamento
Artigo 72 – n.º 1 – alínea c-B) (nova)
Artigo 72 - n.º 1 - alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-B) O orçamento anual do organismo; |
Alteração 675
Proposta de regulamento
Artigo 72 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Ficam sujeitas a coimas até 500 000 EUR as seguintes infrações: |
2. A não observância da proibição das práticas de inteligência artificial referidas no artigo 5.º fica sujeita a coimas até 1 500 000 EUR. |
Alteração 676
Proposta de regulamento
Artigo 72 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Incumprimento da proibição das práticas de inteligência artificial referidas no artigo 5.º; |
Suprimido |
Alteração 677
Proposta de regulamento
Artigo 72 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. A não conformidade do sistema de IA com os requisitos estabelecidos no artigo 10.º fica sujeita a coimas até 1 000 000 EUR. |
Alteração 678
Proposta de regulamento
Artigo 72 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.º e 10.º, fica sujeita a coimas até 250 000 EUR. |
3. A não conformidade do sistema de IA com quaisquer requisitos ou obrigações por força do presente regulamento, que não os estabelecidos nos artigos 5.º e 10.º, fica sujeita a coimas até 750 000 EUR. |
Alteração 679
Proposta de regulamento
Artigo 72 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os fundos recolhidos em resultado da imposição das coimas previstas no presente artigo constituem receitas do orçamento geral da União. |
6. Os fundos recolhidos em resultado da imposição das coimas previstas no presente artigo contribuem para o orçamento geral da União. As coimas não devem afetar a eficácia do funcionamento da instituição, do órgão ou da agência da União alvo de aplicação de coimas. |
Alteração 680
Proposta de regulamento
Artigo 72 – n.º 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
6-A. A Autoridade Europeia para a Proteção de Dados notifica anualmente o Serviço IA das coimas que aplicou por força do presente artigo. |
Alteração 681
Proposta de regulamento
Artigo 73 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O poder de adotar atos delegados referido no artigo 4.º, no artigo 7.º, n.º 1, no artigo 11.º, n.º 3, no artigo 43.º, n.os 5 e 6, e no artigo 48.º, n.º 5, é conferido à Comissão por tempo indeterminado contar de [data de entrada em vigor do presente regulamento]. |
2. O poder de adotar atos delegados referido no artigo 4.º, no artigo 7.º, n.º 1, no artigo 11.º, n.º 3, no artigo 43.º, n.os 5 e 6, e no artigo 48.º, n.º 5, é conferido à Comissão por um período de cinco anos a contar de ... [data de entrada em vigor do presente regulamento]. A Comissão elabora um relatório relativo à delegação de poderes pelo menos nove meses antes do final do prazo de cinco anos. A delegação de poderes é tacitamente prorrogada por prazos de igual duração, salvo se o Parlamento Europeu ou o Conselho a tal se opuserem pelo menos três meses antes do final de cada prazo. |
Alteração 682
Proposta de regulamento
Artigo 73 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Antes de adotar um ato delegado, a Comissão consulta as instituições pertinentes, o Gabinete, o Fórum Consultivo e outras partes interessadas pertinentes, em conformidade com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor. |
|
Assim que a Comissão tiver decidido elaborar um ato delegado, notifica o Parlamento Europeu desse facto. Esta notificação não impõe à Comissão a obrigação de adotar o referido ato. |
Alteração 683
Proposta de regulamento
Artigo 81-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 81.º -A |
|
Alteração do Regulamento (UE) 2019/1020 |
|
O Regulamento (UE) 2019/1020 é alterado do seguinte modo: |
|
Ao artigo 14.º, n.º 4, é aditada o seguinte alínea: |
|
«l) O poder de, se for caso disso, aplicar à distância os poderes previstos no presente artigo;» |
Alteração 684
Proposta de regulamento
Artigo 82-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 82.º-A |
|
Legislar Melhor |
|
Ao ter em conta os requisitos do presente regulamento nos termos das alterações aos artigos 75.º, 76.º, 77.º, 78.º, 79.º, 80.º, 81.º, e 82.º, a Comissão realiza uma análise e consulta as partes interessadas relevantes para determinar potenciais lacunas, bem como sobreposições entre a legislação setorial existente e as disposições do presente regulamento. |
Alteração 685
Proposta de regulamento
Artigo 82-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 82.º-B |
|
Orientações da Comissão sobre a aplicação do presente regulamento |
|
1. A Comissão elabora, em consulta com o Serviço IA, orientações sobre a aplicação prática do presente regulamento e, em especial, sobre: |
|
a) A aplicação dos requisitos a que se referem os artigos 8.º a 15.º os artigos 28.º a 28.º-B; |
|
b) As práticas proibidas a que se refere o artigo 5.º, |
|
c) A aplicação prática das disposições relativas à modificação substancial; |
|
d) As circunstâncias práticas em que o resultado de um sistema de IA a que se refere o anexo III representaria um risco significativo em termos de danos para a saúde, a segurança ou os direitos fundamentais das pessoas singulares, tal como referido no artigo 6.º, n.º 2, dando nomeadamente exemplos a respeito dos sistemas de IA de risco elevado a que se refere o anexo III; |
|
e) A aplicação prática das obrigações de transparência estabelecidas no artigo 52.º, |
|
f) A elaboração de códigos de conduta a que se refere o artigo 69.º; |
|
g) A relação do presente regulamento com outra legislação pertinente da União, nomeadamente no que diz respeito à coerência na sua aplicação. |
|
h) A aplicação prática do artigo 12.º, do artigo 28.º-B sobre o impacto ambiental dos modelos de fundações e do anexo IV, ponto 3, alínea b), em especial os métodos de medição e registo que permitem calcular e comunicar o impacto ambiental dos sistemas para efeitos de cumprimento das obrigações estabelecidas no presente regulamento, incluindo a pegada de carbono e a eficiência energética, tendo em conta os métodos mais avançados e as economias de escala. |
|
Ao emitir essas orientações, a Comissão deve prestar especial atenção às necessidades das PME, incluindo as empresas em fase de arranque, das autoridades públicas locais e dos setores mais suscetíveis de serem afetados pelo presente regulamento. |
|
2. A pedido dos Estados-Membros ou do Serviço IA, ou por sua própria iniciativa, a Comissão atualiza as orientações já adotadas quando tal for considerado necessário. |
Alteração 686
Proposta de regulamento
Artigo 83 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. O presente regulamento não se aplica aos sistemas de IA que sejam componentes dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX que tenham sido colocados no mercado ou colocados em serviço antes de [12 meses após a data de aplicação do presente regulamento referida no artigo 85.º, n.º 2], salvo se a substituição ou alteração desses atos jurídicos implicar uma alteração significativa da conceção ou da finalidade prevista do sistema ou dos sistemas de IA em causa. |
1. Os operadores de sistemas de IA que sejam componentes dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX que tenham sido colocados no mercado ou colocados em serviço antes de ... [data de entrada em vigor do presente regulamento] deve tomar as medidas necessárias para cumprir os requisitos estabelecidos no presente regulamento até ... [quatro anos a contar da data de entrada em vigor do presente regulamento]. |
Alteração 687
Proposta de regulamento
Artigo 83 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os requisitos estabelecidos no presente regulamento devem ser tidos em conta, se for caso disso, na avaliação de cada um dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX, a realizar como previsto nos respetivos atos. |
Os requisitos estabelecidos no presente regulamento devem ser tidos em conta na avaliação de cada um dos sistemas informáticos de grande escala criados pelos atos jurídicos enumerados no anexo IX, a realizar como previsto nos respetivos atos e sempre que esses atos jurídicos sejam substituídos ou alterados. |
Alteração 688
Proposta de regulamento
Artigo 83 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O presente regulamento só se aplica aos sistemas de IA de risco elevado, que não os referidos no n.º 1, que tenham sido colocados no mercado ou colocados em serviço antes de [data de aplicação do presente regulamento referida no artigo 85.º, n.º 2], se, após esta data, os referidos sistemas forem sido sujeitos a alterações significativas em termos de conceção ou finalidade prevista. |
2. O presente regulamento só se aplica aos operadores de sistemas de IA de risco elevado, que não os referidos no n.º 1, que tenham sido colocados no mercado ou colocados em serviço antes de [data de aplicação do presente regulamento referida no artigo 85.º, n.º 2], se, após esta data, os referidos sistemas tiverem sido objeto de modificações substanciais, na aceção do artigo 3.º, ponto 23). No caso de sistemas de IA de risco elevado concebidos para serem utilizados por autoridades públicas, os fornecedores e responsáveis pela implantação desses sistemas devem tomar as medidas necessárias para cumprir os requisitos estabelecidos no presente regulamento [dois anos após a data de entrada em vigor do presente regulamento]. |
Alteração 689
Proposta de regulamento
Artigo 84 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
1. A Comissão avalia a necessidade de alterar a lista que consta do anexo III uma vez por ano após a entrada em vigor do presente regulamento. |
1. Após consultar o Serviço IA, a Comissão avalia a necessidade de alterar a lista que consta do anexo III, incluindo a extensão dos domínios estabelecidos ou o aditamento de novos domínios a esse anexo, |
|
a lista das práticas proibidas que consta do artigo 5.º e a lista dos sistemas de IA que requerem medidas de transparência adicionais que consta do artigo 52.º, uma vez por ano após a entrada em vigor do presente regulamento, na sequência de uma recomendação do Gabinete. |
|
A Comissão apresenta os resultados dessa avaliação ao Parlamento Europeu e ao Conselho. |
Alteração 690
Proposta de regulamento
Artigo 84 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Até [três anos após a data de aplicação do presente regulamento referida no artigo 85.º, n.º 2] e subsequentemente de quatro em quatro anos, a Comissão apresenta ao Parlamento Europeu e ao Conselho um relatório sobre a avaliação e reexame do presente regulamento. Os relatórios devem ser divulgados ao público. |
2. Até ... [dois anos após a data de aplicação do presente regulamento referida no artigo 85.º, n.º 2] e subsequentemente de dois em dois anos, a Comissão, em conjunto com o Serviço IA, apresenta ao Parlamento Europeu e ao Conselho um relatório sobre a avaliação e reexame do presente regulamento. Os relatórios devem ser divulgados ao público. |
Alteração 691
Proposta de regulamento
Artigo 84 – n.º 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
(a) A situação das autoridades nacionais competentes em termos dos recursos financeiros e humanos necessários para exercer eficazmente as funções que lhes foram atribuídas nos termos do presente regulamento; |
(a) A situação das autoridades nacionais competentes em termos dos recursos financeiros, técnicos e humanos necessários para exercer eficazmente as funções que lhes foram atribuídas nos termos do presente regulamento; |
Alteração 692
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) O grau de desenvolvimento de normas harmonizadas e especificações comuns para a inteligência artificial; |
Alteração 693
Proposta de regulamento
Artigo 84 — n.º 3 — alínea b-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-B) Os níveis de investimento na investigação, no desenvolvimento e na aplicação de sistemas de IA em toda a União; |
Alteração 694
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-C) A competitividade do setor europeu de IA relativamente aos setores de IA de países terceiros; |
Alteração 695
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b-D) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-D) O impacto do regulamento no que diz respeito à utilização de recursos e de energia, bem como à produção de resíduos e a outros impactos ambientais; |
Alteração 696
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b-E) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-E) A execução do plano coordenado para a IA, tendo em conta as diferenças entre os Estados-Membros em termos do nível de progresso alcançado e identificando os obstáculos que se colocam à inovação no domínio da IA; |
Alteração 697
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b-F (nova)
|
|
Texto da Comissão |
Alteração |
|
b-F) A atualização dos requisitos específicos a respeito da sustentabilidade dos sistemas de IA e dos modelos de base, baseando-se para tal nos requisitos de comunicação e documentação previstos no anexo IV e no artigo 28.º-B; |
Alteração 698
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-G) O regime jurídico que rege os modelos de base; |
Alteração 699
Proposta de regulamento
Artigo 84 – n.º 3 – alínea b) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-H) A lista de cláusulas contratuais abusivas nos termos do artigo 28.º-A, tendo em conta, se necessário novas práticas comerciais; |
Alteração 700
Proposta de regulamento
Artigo 84 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Até ... [dois anos após a data de entrada em vigor do presente regulamento a que se refere o artigo 85.º, n.º 2], a Comissão avalia o funcionamento do Serviço IA, a questão de saber se lhe foram atribuídos poderes e competências suficientes para o desempenho das suas funções e se, para a correta aplicação e execução do presente regulamento, seria pertinente e necessário reforçar o Gabinete e os seus poderes em matéria de aplicação da lei, bem como aumentar os seus recursos. A Comissão apresenta esse relatório de avaliação ao Parlamento Europeu e ao Conselho. |
Alteração 701
Proposta de regulamento
Artigo 84 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. No prazo de [três anos a contar da data de aplicação do presente regulamento referida no artigo 85.º, n.º 2] e subsequentemente de quatro em quatro anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta com vista a fomentar a aplicação dos requisitos estabelecidos no título III, capítulo 2, e, eventualmente, de outros requisitos adicionais a sistemas de IA que não sejam sistemas de IA de risco elevado. |
4. No prazo de ... [um ano a contar da data de aplicação do presente regulamento referida no artigo 85.º, n.º 2] e subsequentemente de dois em dois anos, a Comissão avalia o impacto e a eficácia dos códigos de conduta com vista a fomentar a aplicação dos requisitos estabelecidos no título III, capítulo 2, e, eventualmente, de outros requisitos adicionais a sistemas de IA que não sejam sistemas de IA de risco elevado; |
Alteração 702
Proposta de regulamento
Artigo 84 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Para efeitos do disposto nos n.os 1 a 4, o Comité, os Estados-Membros e as autoridades nacionais competentes devem facultar à Comissão as informações que esta solicitar. |
5. Para efeitos do disposto nos n.os 1 a 4, o Serviço IA, os Estados-Membros e as autoridades nacionais competentes devem, sem demora injustificada, facultar à Comissão as informações que esta solicitar. |
Alteração 703
Proposta de regulamento
Artigo 84 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Ao efetuar as avaliações e os reexames a que se referem os n.os 1 a 4, a Comissão tem em consideração as posições e as conclusões do Comité, do Parlamento Europeu, do Conselho e de outros organismos ou fontes pertinentes. |
6. Ao efetuar as avaliações e os reexames a que se referem os n.os 1 a 4, a Comissão tem em consideração as posições e as conclusões do Serviço IA, do Parlamento Europeu, do Conselho e de outros organismos ou fontes pertinentes e consulta as partes interessadas pertinentes. O resultado dessa consulta deve ser anexado ao relatório; |
Alteração 704
Proposta de regulamento
Artigo 84 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. Se necessário, a Comissão apresenta propostas adequadas com vista a alterar o presente regulamento, atendendo, em especial, à evolução das tecnologias e aos progressos da sociedade da informação. |
7. Se necessário, a Comissão apresenta propostas adequadas com vista a alterar o presente regulamento, atendendo, em especial, à evolução das tecnologias, ao impacto dos sistemas de IA sobre a saúde e a segurança, os direitos fundamentais, o ambiente, a igualdade, a acessibilidade para as pessoas com deficiência, a democracia e o Estado de Direito e à luz do estádio da evolução da sociedade da informação. |
Alteração 705
Proposta de regulamento
Artigo 84 – n.º 7-A (novo)
|
|
Texto da Comissão |
Alteração |
|
7-A. Para orientar as avaliações e os reexames referidos nos n.os 1 a 4, o Serviço compromete-se a desenvolver uma metodologia objetiva e participativa para a avaliação do nível de risco com base nos critérios estabelecidos nos artigos pertinentes e a inclusão de novos sistemas: na lista que consta do anexo III, incluindo a extensão dos domínios estabelecidos ou o aditamento de novos domínios; na lista das práticas proibidas que consta do artigo 5.º; e na lista sobre sistemas de IA que, nos termos do artigo 52.º, exigem medidas de transparência adicionais. |
Alteração 706
Proposta de regulamento
Artigo 84 – n.º 7-B (novo)
|
|
Texto da Comissão |
Alteração |
|
7-B. Qualquer alteração do presente regulamento nos termos do n.º 7 do presente artigo, ou de futuros atos delegados ou de execução pertinentes que incidam sobre a legislação setorial enumerada no anexo II, secção B, deve ter em conta as especificidades regulamentares de cada setor e os mecanismos aplicáveis em matéria de governação, avaliação da conformidade e de aplicação da lei, bem como as autoridades previstas nos mesmos. |
Alteração 707
Proposta de regulamento
Artigo 84 – n.º 7-C (novo)
|
|
Texto da Comissão |
Alteração |
|
7-C. Até ... [cinco anos a contar da data de aplicação do presente regulamento], a Comissão procede a uma avaliação da aplicação do presente regulamento e apresenta um relatório ao Parlamento Europeu, ao Conselho e ao Comité Económico e Social Europeu, tendo em conta os primeiros anos de aplicação do regulamento. Com base nas suas conclusões, tal relatório deve, quando se justifique, ser acompanhado de uma proposta de alteração do presente regulamento no que diz respeito à estrutura de execução e à necessidade de uma agência da UE para resolver quaisquer deficiências identificadas. |
Alteração 708
Proposta de regulamento
Anexo I
|
|
Texto da Comissão |
Alteração |
TÉCNICAS E ABORDAGENS NO DOMÍNIO DA INTELIGÊNCIA ARTIFICIAL referidas no artigo 3.º, ponto 1 |
Suprimido |
a) Abordagens de aprendizagem automática, incluindo aprendizagem supervisionada, não supervisionada e por reforço, utilizando uma grande variedade de métodos, designadamente aprendizagem profunda; |
|
b) Abordagens baseadas na lógica e no conhecimento, nomeadamente representação do conhecimento, programação (lógica) indutiva, bases de conhecimento, motores de inferência e de dedução, sistemas de raciocínio (simbólico) e sistemas periciais; |
|
c) Abordagens estatísticas, estimação de Bayes, métodos de pesquisa e otimização. |
|
Alteração 709
Proposta de regulamento
Anexo III – parágrafo 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado a que se refere o artigo 6.º, n.º 2, são os sistemas de IA incluídos num dos domínios a seguir enumerados: |
Os sistemas de IA a que se referem especificamente os pontos 1 a 8-A dizem respeito a casos de utilização críticos e todos eles são considerados sistemas de IA de risco elevado nos termos do artigo 6.º, n.º 2, desde que preencham os critérios estabelecidos nesse artigo: |
Alteração 710
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Identificação biométrica e categorização de pessoas singulares: |
1. Sistemas biométricos e baseados em biometria |
Alteração 711
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados para a identificação biométrica à distância «em tempo real» e «em diferido» de pessoas singulares; |
a) Sistemas de IA concebidos para serem utilizados para a identificação biométrica de pessoas singulares, com exceção dos sistemas a que se refere o artigo 5.º; |
Alteração 712
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Sistemas de IA concebidos para serem utilizados para tirar conclusões sobre as características pessoais de pessoas singulares com base na biometria ou em dados biométricos, nomeadamente sistemas de reconhecimento de emoções, com exceção dos mencionados no artigo 5.º. |
|
O ponto 1 não inclui os sistemas de IA concebidos para serem utilizados para verificação biométrica com o único propósito de confirmar que uma determinada pessoa singular é a pessoa que alega ser. |
Alteração 713
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade. |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário, ferroviário e aéreo, a menos que estejam regulamentados na legislação de harmonização ou na regulamentação setorial. |
Alteração 714
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 2 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo das redes de abastecimento de água, gás, aquecimento e eletricidade. |
Alteração 715
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação profissional; |
a) Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação profissional ou para influenciar significativamente as decisões de admissão; |
Alteração 716
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação profissional e de avaliação de participantes nos testes habitualmente exigidos para admissão em instituições de ensino. |
b) Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação profissional e de avaliação de participantes nos testes habitualmente exigidos para admissão em tais instituições; |
Alteração 717
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) Sistemas de IA concebidos para serem utilizados para fins de determinação do nível adequado de educação de um indivíduo e com repercussões significativas sobre o nível de ensino e formação profissional que o indivíduo em causa adquirirá ou ao qual poderá ter acesso; |
Alteração 718
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea h-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-B) Sistemas de IA concebidos para serem utilizados para fins de monitorização e deteção de práticas proibidas por parte de estudantes durante testes no contexto de instituições de ensino e de formação ou em tais instituições; |
Alteração 719
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 4 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, designadamente para divulgação de vagas, aplicações de triagem ou filtragem, avaliação de candidatos no decurso de entrevistas ou testes; |
a) Sistemas de IA concebidos para serem utilizados no recrutamento ou na seleção de pessoas singulares, designadamente para a publicação de anúncios de emprego direcionados, aplicações de triagem ou filtragem, avaliação de candidatos no decurso de entrevistas ou testes; |
Alteração 720
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 4 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados na tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, na repartição de tarefas e no controlo e avaliação do desempenho e do comportamento de pessoas envolvidas nas referidas relações. |
b) Sistemas de IA concebidos para serem utilizados para tomar ou influenciar significativamente decisões com repercussões sobre o início ou a cessação de relações contratuais de trabalho, promoções, a repartição de tarefas com base no comportamento individual ou em traços de personalidade ou características pessoais ou para controlar e avaliar o desempenho e o comportamento de pessoas envolvidas em tais relações; |
Alteração 721
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 5 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência, bem como para conceder, reduzir, revogar ou recuperar tais prestações e serviços; |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em seu nome para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência, incluindo serviços de saúde e serviços essenciais, nomeadamente mas não exclusivamente, alojamento físico, eletricidade, aquecimento/ventilação e internet, bem como para conceder, reduzir, revogar, aumentar ou recuperar tais prestações e serviços; |
Alteração 722
Proposta de regulamento
Anexo III – parágrafo 1 – n.º 5 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA colocados em serviço por fornecedores de pequena dimensão para utilização própria; |
b) Sistemas de IA concebidos para serem utilizados para avaliar a capacidade de endividamento de pessoas singulares ou estabelecer a sua classificação de crédito, com exceção dos sistemas de IA utilizados para efeitos de deteção de fraude financeira; |
Alteração 723
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 5 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) Sistemas de IA concebidos para serem utilizados para tomar ou influenciar significativamente decisões sobre a elegibilidade de pessoas singulares para seguros de doença e de vida; |
Alteração 724
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 5 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Sistemas de IA concebidos para serem utilizados no envio ou no estabelecimento de prioridades no envio de serviços de resposta a emergências, incluindo bombeiros e assistência médica. |
c) Sistemas de IA concebidos para avaliar e classificar chamadas de emergência efetuadas por pessoas singulares ou para serem utilizados no envio ou no estabelecimento de prioridades no envio de serviços de resposta a emergências, incluindo a polícia, autoridade policiais, bombeiros e assistência médica, bem como sistemas de seleção de pacientes do sistema de cuidados de saúde em urgência; |
Alteração 725
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea a)
|
|
Texto da Comissão |
Alteração |
(a) Sistemas de IA concebidos para serem utilizados por autoridades policiais em avaliações individuais de riscos relativamente a pessoas singulares, a fim de determinar o risco de uma pessoa singular cometer infrações ou voltar a cometer infrações ou o risco para potenciais vítimas de infrações penais; |
Suprimido |
Alteração 726
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados por autoridades policiais como polígrafos e instrumentos similares ou para detetar o estado emocional de uma pessoa singular; |
b) Sistemas de IA concebidos para serem utilizados por autoridades policiais, ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais como polígrafos e instrumentos similares, na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável; |
Alteração 727
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Sistemas de IA concebidos para serem utilizados por autoridades policiais para detetar falsificações profundas referidas no artigo 52.º, n.º 3; |
Suprimido |
Alteração 728
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Sistemas de IA concebidos para serem utilizados por autoridades policiais para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou repressão de infrações penais; |
d) Sistemas de IA concebidos para serem utilizados por autoridades policiais, ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais para avaliar a fiabilidade dos elementos de prova no decurso da investigação ou repressão de infrações penais; |
Alteração 729
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Sistemas de IA concebidos para serem utilizados por autoridades policiais para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares, na aceção do artigo 3.º, ponto 4, da Diretiva (UE) 2016/680, ou para avaliar os traços de personalidade e as características ou os comportamento criminal passado de pessoas singulares ou grupos; |
Suprimido |
Alteração 730
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Sistemas de IA concebidos para serem utilizados por autoridades policiais para definir o perfil de pessoas singulares, na aceção do artigo 3.º, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou repressão de infrações penais; |
f) Sistemas de IA concebidos para serem utilizados por autoridades policiais, ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais para definir o perfil de pessoas singulares, na aceção do artigo 3.º, ponto 4, da Diretiva (UE) 2016/680, no decurso da deteção, investigação ou repressão de infrações penais ou, no caso das agências, serviços ou organismos da União, na aceção do artigo 3.º, n.º 5, do Regulamento (UE) 2018/1725; |
Alteração 731
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 6 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Sistemas de IA concebidos para serem utilizados no estudo analítico de crimes relativos a pessoas singulares, permitindo às autoridades policiais pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões desconhecidos ou descobrir relações escondidas nos dados. |
g) Sistemas de IA concebidos para serem utilizados pelas autoridades policiais, ou em seu nome, ou por agências, serviços ou organismos da União em apoio das autoridades policiais no estudo analítico de crimes relativos a pessoas singulares, permitindo pesquisar grandes conjuntos de dados complexos, relacionados ou não relacionados, disponíveis em diferentes fontes de dados ou em diferentes formatos de dados, no intuito de identificar padrões desconhecidos ou descobrir relações escondidas nos dados. |
Alteração 732
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 7 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes como polígrafos e instrumentos similares ou para detetar o estado emocional de uma pessoa singular; |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União como polígrafos e instrumentos similares, na medida em que a sua utilização seja permitida ao abrigo do direito da União e nacional aplicável; |
Alteração 733
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 7 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes para avaliar riscos, incluindo um risco para a segurança, um risco de imigração irregular ou um risco para a saúde, representados por uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro; |
b) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para avaliar riscos, incluindo um risco para a segurança, um risco de imigração irregular ou um risco para a saúde, representados por uma pessoa singular que pretenda entrar ou tenha entrado no território de um Estado-Membro; |
Alteração 734
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 7 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes para verificar a autenticidade de documentos de viagem e documentos comprovativos de pessoas singulares e detetar documentos não autênticos por meio da verificação dos seus elementos de segurança; |
c) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para verificar a autenticidade de documentos de viagem e documentos comprovativos de pessoas singulares e detetar documentos não autênticos por meio da verificação dos seus elementos de segurança; |
Alteração 735
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 7 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Sistemas de IA concebidos para auxiliar autoridades públicas competentes na análise dos pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto. |
d) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para auxiliar autoridades públicas competentes na análise e apreciação da veracidade das provas relacionadas com pedidos de asilo, de visto e de autorização de residência e das queixas relacionadas, no que toca à elegibilidade das pessoas singulares que requerem determinado estatuto. |
Alteração 736
Proposta de regulamento
Anexo III – parágrafo 1 – n.º 7 – alínea d-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-A) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para a gestão da migração, do asilo e do controlo nas fronteiras, a fim de monitorizar, vigiar ou tratar dados no contexto de atividades de gestão das fronteiras para efeitos de deteção, reconhecimento ou identificação de pessoas singulares; |
Alteração 737
Proposta de regulamento
Anexo III – parágrafo 1 – n.º 7 – alínea d-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
d-B) Sistemas de IA concebidos para serem utilizados por autoridades públicas competentes, ou em seu nome, ou por agências, serviços ou organismos da União para a gestão da migração, do asilo e do controlo nas fronteiras, com vista à projeção ou predição de tendências em matéria de correntes migratórias e passagens de fronteiras; |
Alteração 738
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 8 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para auxiliar uma autoridade judiciária na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. |
a) Sistemas de IA concebidos para serem utilizados por uma autoridade judiciária ou por um organismo administrativo, ou em nome destes, para auxiliar uma autoridade judiciária ou um órgão administrativo na investigação e na interpretação de factos e do direito, bem como na aplicação da lei a um conjunto específico de factos, ou utilizados de forma similar na resolução alternativa de litígios. |
Alteração 739
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 8 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Sistemas de IA concebidos para serem utilizados para influenciar o resultado de uma eleição ou referendo ou o comportamento eleitoral de pessoas singulares no exercício do seu direito de voto em eleições ou referendos. Tal não inclui os sistemas de IA a cujos resultados as pessoas singulares não estejam diretamente expostas, como as ferramentas utilizadas para organizar, otimizar e estruturar campanhas políticas de um ponto de vista administrativo e logístico. |
Alteração 740
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 8 – alínea c-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-B) Sistemas de IA concebidos para serem utilizados por plataformas de redes sociais que tenham sido consideradas «plataformas em linha de muito grande dimensão», na aceção do artigo 33.º do Regulamento (UE) 2022/2065, nos seus sistemas de recomendação, a fim de recomendar ao destinatário conteúdos gerados pelo utilizador disponíveis na plataforma. |
Alteração 741
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A finalidade prevista, a(s) pessoa(s) responsáveis pelo seu desenvolvimento, a data e a versão do sistema; |
a) A finalidade prevista, o nome do fornecedor e a versão do sistema, refletindo a sua posição em relação a versões anteriores e, se for caso disso, a versões mais recentes, na sucessão de revisões; |
Alteração 742
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) A natureza dos dados que podem ser tratados ou a tratar pelo sistema e, no caso de dados pessoais, as categorias de pessoas singulares e grupos visados ou suscetíveis de serem afetados; |
Alteração 743
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) De que forma o sistema de IA interage ou pode ser utilizado para interagir com hardware ou software que não faça parte do próprio sistema de IA, se for caso disso; |
b) De que forma o sistema de IA pode interagir ou ser utilizado para interagir com hardware ou software, incluindo outros sistemas de IA, que não façam parte do próprio sistema de IA, se for caso disso; |
Alteração 744
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) As versões do software ou firmware instalado e quaisquer requisitos relacionados com a atualização das versões; |
c) As versões do software ou firmware instalado e, se for caso disso, informações para o responsável pela implantação sobre quaisquer requisitos relacionados com a atualização das versões; |
Alteração 745
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) A descrição de todas as formas sob as quais o sistema de IA é colocado no mercado ou colocado em serviço; |
d) A descrição das várias configurações e variantes do sistema de IA que se destinam a ser colocadas no mercado ou em serviço; |
Alteração 746
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
f-A) A descrição da interface do responsável pela implantação; |
Alteração 747
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Instruções de utilização para o utilizador e, se for caso disso, instruções de instalação; |
g) Instruções de utilização para o responsável pela implantação nos termos do artigo 13.º, n.ºs 2 e 3, e do artigo 14.º, n.º 4, alínea e), e, se for caso disso, instruções de instalação; |
Alteração 748
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-A) Uma descrição pormenorizada e facilmente compreensível do ou dos principais objetivos de otimização do sistema; |
Alteração 749
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea g-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-B) Uma descrição pormenorizada e facilmente compreensível dos resultados previstos do sistema e da qualidade prevista dos resultados; |
Alteração 750
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-C) Instruções pormenorizadas e facilmente compreensíveis para interpretar os resultados do sistema; |
Alteração 751
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 1 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-D) Exemplos de cenários em que o sistema não deva ser utilizado; |
Alteração 752
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) As especificações de conceção do sistema, designadamente a lógica geral do sistema de IA e dos algoritmos; as principais opções de conceção, nomeadamente a lógica subjacente e os pressupostos utilizados, também no respeitante às pessoas ou grupos de pessoas em relação às quais se pretende que o sistema seja utilizado; as principais opções de classificação; o que se pretende otimizar com o sistema e a importância dos diferentes parâmetros; as decisões acerca de eventuais cedências em relação às soluções técnicas adotadas para cumprir os requisitos definidos no título III, capitulo 2; |
b) Uma descrição da arquitetura, das especificações de conceção, dos algoritmos e da estrutura dos dados, nomeadamente a desagregação dos seus elementos constituintes e interfaces, a forma como se relacionam entre si e a forma como asseguram o processamento global ou a lógica do sistema de IA; as principais opções de conceção, nomeadamente a lógica subjacente e os pressupostos utilizados, também no respeitante às pessoas ou grupos de pessoas em relação às quais se pretende que o sistema seja utilizado; as principais opções de classificação; o que se pretende otimizar com o sistema e a importância dos diferentes parâmetros; as decisões acerca de eventuais cedências em relação às soluções técnicas adotadas para cumprir os requisitos definidos no título III, capitulo 2; |
Alteração 753
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) A descrição da arquitetura do sistema, explicando de que forma os componentes de software se incorporam ou enriquecem mutuamente e como se integram no processamento global; os recursos computacionais utilizados para desenvolver, treinar, testar e validar o sistema de IA; |
c) Suprimido |
Alteração 754
Proposta de regulamento
Anexo IV – parágrafo 1 – n.º 2 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Análise das medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo uma análise das soluções técnicas necessárias para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores, em conformidade com o artigo 13.º, n.º 3, alínea d); |
e) Análise das medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo uma análise das soluções técnicas necessárias para facilitar a interpretação dos resultados dos sistemas de IA pelos responsáveis pela implantação, em conformidade com o artigo 13.º, n.º 3, alínea d); |
Alteração 755
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Os procedimentos de validação e teste aplicados, incluindo informações sobre os dados de validação e teste utilizados e as principais características desses dados; as métricas utilizadas para aferir a exatidão, a solidez, a cibersegurança e a conformidade com outros requisitos aplicáveis estabelecidos no título III, capítulo 2, bem como potenciais impactos discriminatórios; registos dos testes e todos os relatórios de teste datados e assinados pelas pessoas responsáveis, incluindo no respeitante às alterações predeterminadas referidas na alínea f). |
g) Os procedimentos de validação e teste aplicados, incluindo informações sobre os dados de validação e teste utilizados e as principais características desses dados; as informações utilizadas para aferir a exatidão, a solidez e a conformidade com outros requisitos aplicáveis estabelecidos no título III, capítulo 2, bem como potenciais impactos discriminatórios; registos dos testes e todos os relatórios de teste datados e assinados pelas pessoas responsáveis, incluindo no respeitante às alterações predeterminadas referidas na alínea f). |
Alteração 756
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 2 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-A) As medidas de cibersegurança estabelecidas. |
Alteração 757
Proposta de regulamento
Anexo IV – primeiro parágrafo – ponto 3
|
|
Texto da Comissão |
Alteração |
3. Informações pormenorizadas sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores; especificações relativas aos dados de entrada, consoante apropriado; |
3. Informações pormenorizadas sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos responsáveis pela implantação; especificações relativas aos dados de entrada, consoante apropriado; |
Alteração 758
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 3-A – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
3-A. Uma descrição da pertinência da métrica de desempenho aplicável ao sistema de IA específico; |
Alteração 759
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. Informações sobre o consumo de energia do sistema de IA durante a fase de desenvolvimento e o consumo de energia previsto durante a utilização, tendo em conta, se for caso disso, o direito da União e nacional aplicável; |
Alteração 760
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 5
|
|
Texto da Comissão |
Alteração |
5. A descrição de todas as alterações introduzidas no sistema ao longo do seu ciclo de vida; |
5. A descrição de todas as alterações pertinentes introduzidas pelos fornecedores no sistema ao longo do seu ciclo de vida; |
Alteração 761
Proposta de regulamento
Anexo IV – parágrafo 1 – ponto 6
|
|
Texto da Comissão |
Alteração |
6. Uma lista de normas harmonizadas aplicadas total ou parcialmente, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia; caso não tenham sido aplicadas tais normas harmonizadas, uma descrição pormenorizada das soluções adotadas para cumprir os requisitos estabelecidos no título III, capítulo 2, incluindo uma lista de outras normas pertinentes e especificações técnicas aplicadas; |
6. Uma lista de normas harmonizadas aplicadas total ou parcialmente, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia; caso não tenham sido aplicadas tais normas harmonizadas, uma descrição pormenorizada das soluções adotadas para cumprir os requisitos estabelecidos no título III, capítulo 2, incluindo uma lista de outras normas pertinentes ou especificações comuns aplicadas; |
Alteração 762
Proposta de regulamento
Anexo V – parágrafo 1 – ponto 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Sempre que um sistema de IA implique o tratamento de dados pessoais, uma declaração de que esse sistema de IA cumpre o disposto nos Regulamentos (UE) 2016/679 e (UE) 2018/1725 e na Diretiva (UE) 2016/680. |
Alteração 763
Proposta de regulamento
Anexo V – parágrafo 1 – ponto 7
|
|
Texto da Comissão |
Alteração |
7. Local e data de emissão da declaração, nome e cargo da pessoa que assina, bem como indicação da pessoa em nome de quem assina, assinatura. |
7. Local e data de emissão da declaração, assinatura, nome e cargo da pessoa que assina, bem como indicação da pessoa em nome de quem assina, assinatura. |
Alteração 764
Proposta de regulamento
Anexo VII – ponto 4 – ponto 4.5
|
|
Texto da Comissão |
Alteração |
4.5. Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, e mediante pedido fundamentado, deve também ser concedido ao organismo notificado o acesso ao código-fonte do sistema de IA. |
4.5. Sempre que necessário para avaliar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no título III, capítulo 2, depois de todas as outras formas razoáveis de verificação da conformidade terem sido esgotadas ou se revelarem insuficientes, e mediante pedido fundamentado, deve também ser concedido ao organismo notificado o acesso aos modelos de treino e treinados do sistema de IA, incluindo os seus parâmetros pertinentes. Esse acesso está sujeito à legislação da União em vigor em matéria de proteção da propriedade intelectual e dos segredos comerciais. Devem ser tomadas medidas técnicas e de organização para assegurar a proteção da propriedade intelectual e dos segredos comerciais. |
Alteração 765
Proposta de regulamento
Anexo VIII – parágrafo 1
|
|
Texto da Comissão |
Alteração |
As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o artigo 51.º. |
Secção A – As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o artigo 51.º, n.º 1. |
Alteração 766
Proposta de regulamento
Anexo VIII – ponto 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Designação comercial do modelo de base e quaisquer outras referências inequívocas que permitam a identificação e garantam a rastreabilidade |
Alteração 767
Proposta de regulamento
Anexo VIII – ponto 5
|
|
Texto da Comissão |
Alteração |
5. Descrição da finalidade prevista do sistema de IA; |
5. Uma descrição simples e compreensível |
|
a. da finalidade prevista do sistema de IA; |
|
b. dos componentes e funções apoiados pela IA; |
|
c. de uma explicação elementar da lógica do sistema de IA. |
Alteração 768
Proposta de regulamento
Anexo VIII – ponto 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. Se aplicável, as categorias e a natureza dos dados que poderão ou deverão ser tratados pelo sistema de IA; |
Alteração 769
Proposta de regulamento
Anexo VIII – ponto 11
|
|
Texto da Comissão |
Alteração |
11. Instruções de utilização em formato eletrónico; esta informação não é fornecida no que respeita a sistemas de IA de risco elevado nos domínios da manutenção da ordem pública e da gestão da migração, do asilo e do controlo das fronteiras, referidos no anexo III, pontos 1, 6 e 7; |
Suprimido |
Alteração 770
Proposta de regulamento
Anexo VII – secção B-A (nova)
|
|
Texto da Comissão |
Alteração |
|
Secção B – As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante a sistemas de IA de risco elevado a registar em conformidade com o artigo 51.º, n.º 1-A, alínea a), e n.º 1-B. |
|
1. Nome, endereço e dados de contacto do responsável pela implantação; |
|
2. Nome, endereço e dados de contacto da pessoa que apresenta informações em nome do responsável pela implantação; |
|
3. A designação comercial do sistema de IA de risco elevado e quaisquer outras referências inequívocas que permitam identificar e rastrear o sistema de IA utilizado; |
|
4. a. Uma descrição simples e compreensível da utilização prevista do sistema de IA, incluindo os resultados específicos pretendidos com a utilização do sistema, bem como o âmbito geográfico e temporal da sua aplicação; |
|
b. Se aplicável, as categorias e a natureza dos dados a tratar pelo sistema de IA; |
|
c. Convénios em matéria de supervisão humana e governação; |
|
d. Se aplicável, os organismos ou pessoas singulares responsáveis pelas decisões tomadas ou apoiadas pelo sistema de IA; |
|
5. Uma síntese das conclusões da avaliação do impacto sobre os direitos fundamentais realizada nos termos do artigo 29.º-A; |
|
6. O URL da entrada do sistema de IA na base de dados da UE pelo seu fornecedor; |
|
7. Uma síntese da avaliação do impacto sobre a proteção de dados realizada nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680, conforme especificado no artigo 29.º, n.º 6, do presente regulamento, se aplicável. |
Alteração 771
Proposta de regulamento
Anexo VIII – secção C (nova)
|
|
Texto da Comissão |
Alteração |
|
Secção C – As informações a seguir indicadas devem ser fornecidas e, subsequentemente, mantidas atualizadas no respeitante aos modelos de base a registar em conformidade o artigo 28.º-B, alínea e). |
|
1. Nome, endereço e contactos do fornecedor; |
|
2. Se as informações forem apresentadas por outra pessoa em nome do fornecedor, nome, endereço e contactos dessa pessoa; |
|
3. Nome, endereço e contactos do mandatário, se aplicável; |
|
4. Designação comercial e quaisquer outras referências inequívocas que permitam identificar o modelo de base; |
|
5. Descrição das fontes de dados utilizadas no desenvolvimento do modelo de base; |
|
6. Descrição das capacidades e limitações do modelo de base, incluindo os riscos razoavelmente previsíveis e as medidas que foram tomadas para os atenuar, bem como os riscos remanescentes não atenuados, com uma explicação dos motivos pelos quais não podem ser atenuados; |
|
7. Descrição dos recursos de treino utilizados pelo modelo de base, incluindo a potência computacional necessária, o tempo de treino e outras informações pertinentes relacionadas com a dimensão e a potência do modelo 8. Descrição do desempenho do modelo, nomeadamente em relação a parâmetros de referência públicos ou padrões de referência setoriais correspondentes ao estado da técnica; |
|
8. Descrição dos resultados dos ensaios internos e externos pertinentes e da otimização do modelo; |
|
9. Os Estados-Membros em que o modelo de base está ou foi colocado no mercado ou colocado em serviço ou disponibilizado na União; |
|
10. URL para informações adicionais (opcional). |
EXPOSIÇÃO DE MOTIVOS
Os correlatores partilham a opinião de que a inteligência artificial desenvolvida e utilizada na Europa deve ser centrada no ser humano, fiável e respeitar os direitos fundamentais e os valores da União consagrados nos Tratados. Ao mesmo tempo, a regulamentação não deve prejudicar, mas sim apoiar a inovação e o ambiente empresarial. A melhor forma de alcançar estes dois objetivos consiste em aumentar a segurança e a clareza jurídicas ao longo de toda a proposta de regulamento, a fim de ajudar o setor privado e as autoridades públicas a cumprirem as novas obrigações. O projeto de relatório contém os pontos relativamente aos quais os correlatores concordaram facilmente e aborda todos os principais elementos do projeto de regulamento.
Em termos de âmbito, os correlatores concordam com a abordagem baseada no risco proposta pela Comissão. Ou seja, as obrigações estabelecidas no presente regulamento aplicam-se apenas às práticas proibidas, aos sistemas de IA de risco elevado e a determinados sistemas de IA que exigem transparência. Como tal, nenhum sistema de IA deve ser excluído ex ante da definição de «inteligência artificial» ou mediante a previsão de exceções para tipos específicos de sistemas de IA, incluindo a IA de finalidade geral. Se, por razões objetivas, os fornecedores não puderem cumprir as obrigações previstas no presente regulamento, deverão poder celebrar acordos com os utilizadores para partilhar as responsabilidades. Um elemento fundamental do projeto de relatório é também o alinhamento do texto com o RGPD, uma vez que os dois regulamentos devem funcionar de forma complementar tendo em vista o desenvolvimento e a adoção da IA na Europa.
Em termos de práticas proibidas, os correlatores concordaram em acrescentar à lista práticas que equivalem a um «policiamento preditivo», uma vez que partilham a opinião de que as sociedades liberais não podem utilizar a tecnologia em violação do princípio fundamental da presunção de inocência.
No que diz respeito aos sistemas de IA de risco elevado, que são o principal objetivo do regulamento, os correlatores propõem acrescentar uma série de casos de utilização à lista de sistemas de IA de risco elevado. Uma vez que as crianças são uma categoria particularmente vulnerável, os sistemas de IA utilizados para influenciar ou moldar o seu desenvolvimento devem ser considerados de risco elevado. Os sistemas de IA utilizados pelos candidatos ou partidos para influenciar os votos nas eleições locais, nacionais ou europeias e os sistemas de IA utilizados para contabilizar esses votos, têm potencial, ao influenciar um grande número de cidadãos da União, para afetar o próprio funcionamento da nossa democracia. Por conseguinte, devem ser considerados de risco elevado. Os sistemas de IA utilizados para a triagem de doentes no setor dos cuidados de saúde e os sistemas de IA utilizados para determinar a elegibilidade para seguros de doença e de vida também são considerados de risco elevado. Devido ao seu potencial para induzir em erro, dois tipos de sistemas de IA devem estar sujeitos tanto aos requisitos de transparência como aos requisitos de conformidade dos sistemas de IA de risco elevado: falsificações profundas que usurpam a identidade de pessoas reais e conteúdos editoriais escritos pela IA («autores IA»). Os correlatores salientam que os sistemas de IA de risco elevado não são proibidos, nem devem ser considerados indesejáveis. Pelo contrário, o cumprimento dos requisitos de conformidade estabelecidos no presente regulamento torna esses sistemas mais fiáveis e mais suscetíveis de serem bem-sucedidos no mercado europeu.
O projeto de relatório analisa mais de perto a cadeia de responsabilidade e procura clarificar e reequilibrar algumas disposições. A saber, em matéria de governação de dados, a coerência com o RGPD foi reforçada e o eventual fundamento jurídico adicional para o tratamento de dados pessoais foi suprimido. Além disso, foi clarificado que os conjuntos de dados «isentos de erros» devem ser um objetivo global a alcançar tanto quanto possível, e não um requisito preciso. Os casos em que os conjuntos de dados estão na posse dos utilizadores, enquanto o fornecedor apenas cria a arquitetura global do sistema, também foram clarificados. A maioria destes esclarecimentos tem em conta as preocupações expressas pela indústria, uma vez que a cadeia de valor da IA nem sempre é linear e as responsabilidades têm de ser claramente definidas entre os diferentes intervenientes na cadeia de valor.
Os utilizadores de sistemas de IA de risco elevado também desempenham um papel na proteção da saúde, da segurança e dos direitos fundamentais dos cidadãos da UE e dos valores da UE, pois garantem a nomeação de pessoas competentes responsáveis pela supervisão humana dos sistemas de IA de risco elevado e desempenham um papel mais ativo na comunicação de incidentes ou anomalias de um sistema de IA, uma vez que, por vezes, estão em melhor posição para detetar tais incidentes ou anomalias. Os utilizadores que são autoridades públicas estão sujeitos a maiores expetativas de transparência nas sociedades democráticas. Como tal, as autoridades públicas, as instituições, agências ou organismos da União devem registar a utilização de sistemas de IA de risco elevado na base de dados à escala da UE. Tal permite uma maior supervisão democrática, escrutínio público e responsabilização, a par de uma maior transparência perante o público sobre a utilização de sistemas de IA em domínios sensíveis com impacto na vida das pessoas. Além disso, os utilizadores de sistemas de IA de risco elevado referidos no anexo III, que tomam, ou ajudam a tomar decisões relacionadas com pessoas singulares, devem informar as pessoas singulares de que estão sujeitas à utilização do sistema de IA de risco elevado.
Várias disposições do projeto de relatório centram-se na governação e na execução, uma vez que os correlatores estão convencidos de que estes são elementos fundamentais para permitir a aplicação eficaz e coerente do Regulamento Inteligência Artificial em toda a União, contribuindo assim para criar um verdadeiro mercado único da inteligência artificial.
Para o efeito, as funções do Comité para a IA foram aumentadas. O Comité para a IA deve desempenhar um papel mais significativo na aplicação uniforme do regulamento e na prestação de aconselhamento e recomendações à Comissão, por exemplo sobre a necessidade de alterar o anexo III, e às autoridades nacionais de controlo. O Comité deverá funcionar como um fórum de intercâmbio entre as autoridades nacionais de controlo e, ao mesmo tempo, constituir um local para a arbitragem de litígios que envolvam autoridades de dois ou mais Estados-Membros, a fim de evitar a fragmentação do mercado único através de uma aplicação diferenciada. Além disso, dado o seu papel e responsabilidades acrescidas, o Comité deve organizar, pelo menos duas vezes por ano, consultas com a indústria, as empresas em fase de arranque e as PME, a sociedade civil e o meio académico, a fim de desempenhar as suas funções em colaboração com todas as partes interessadas pertinentes.
A nível nacional, os correlatores salientaram a necessidade de uma estreita cooperação entre as autoridades de fiscalização do mercado e as autoridades de proteção de dados, uma vez que a aplicação do regulamento relativo à IA exigirá ambos os conjuntos de competências, que, além disso, devem ser regularmente atualizados. Em caso de violação dos direitos fundamentais, os organismos competentes em matéria de direitos fundamentais devem também ser estreitamente associados.
No intuito de resolver eventuais problemas que afetem cidadãos em diversos Estados-Membros, os correlatores propõem um novo mecanismo de execução por parte da Comissão, que deverá ser desencadeado em casos que constituam infrações generalizadas (três ou mais Estados-Membros), nomeadamente em caso de inação na sequência de uma infração que afete pelo menos três Estados-Membros. Este mecanismo, baseado no modelo do Regulamento Serviços Digitais, mas adaptado à natureza diferente da legislação em matéria de IA, visa resolver alguns dos problemas de execução observados noutras estruturas de governação, contribuir para a aplicação uniforme do presente regulamento e reforçar o mercado único digital. De acordo com o mecanismo, em tais casos de infrações generalizadas, a Comissão deve dispor dos poderes de uma autoridade de fiscalização do mercado, segundo o modelo do Regulamento relativo à fiscalização do mercado e à conformidade.
Os correlatores consideram importante reforçar a participação das partes interessadas e das organizações da sociedade civil em várias disposições fundamentais do regulamento, tais como as atualizações da lista de sistemas de IA de risco elevado, o processo de normalização, bem como as atividades do Comité e os ambientes de testagem. Além disso, para garantir que as pessoas estejam devidamente habilitadas quando a utilização de um sistema de IA infringe os seus direitos, e também para contribuir para reforçar a confiança nos sistemas de IA e a sua utilização generalizada, os correlatores acrescentaram um capítulo específico sobre vias de recurso, tanto para as pessoas singulares como para as pessoas coletivas.
Os correlatores desejam realçar, em conjunto, que o objetivo do Regulamento Inteligência Artificial é garantir a proteção da saúde, da segurança, dos direitos fundamentais e dos valores da União e, ao mesmo tempo, a adoção da IA em toda a União, um mercado único digital mais integrado e um ambiente legislativo adequado ao empreendedorismo e à inovação. Este espírito orientou e continuará a orientar os seus trabalhos sobre o presente regulamento.
PARECER DA COMISSÃO DA INDÚSTRIA, DA INVESTIGAÇÃO E DA ENERGIA (14.6.2022)
dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
Relatora de parecer(*): Eva Maydell
(*) Comissões associadas – Artigo 57.º do Regimento
JUSTIFICAÇÃO SUCINTA
Introdução
A relatora congratula‑se com a proposta da Comissão de um regulamento sobre a inteligência artificial e, em especial, com a abordagem horizontal baseada no risco que apresenta. Esta abordagem permitirá o desenvolvimento de sistemas de IA em consonância com os valores europeus e a promoção da confiança social nestas novas tecnologias, para que a UE possa tirar pleno partido dos benefícios económicos e sociais da IA.
A relatora considera que, através do regulamento relativo à IA, há que criar um ambiente com um equilíbrio justo entre liberdade e supervisão. A relatora propõe que sejam tomadas mais disposições para que as empresas, em especial as empresas em fase de arranque e as PME, continuem a ser competitivas e criativas face às novas obrigações que lhes são exigidas. No entender da relatora, este aspeto aumentará tanto a legitimidade como a relevância do regulamento relativo à IA. Cumpre facultar às empresas orientações mais claras, dotá‑las de instrumentos mais simples e recursos mais eficientes para fazer face à regulamentação, o que permitirá apoiar a inovação, o desenvolvimento e a aceitação da IA pelo mercado.
Por conseguinte, o projeto da relatora visa quatro objetivos principais nesse sentido:
1. Reforçar as medidas de apoio à inovação, como as previstas para os ambientes de testagem da regulamentação, com especial destaque para as empresas em fase de arranque e as PME;
2. Elaborar uma definição concisa e internacionalmente reconhecida de «sistema de inteligência artificial» e definir normas elevadas, embora realistas, em matéria de exatidão, robustez, cibersegurança e dados;
3. Incentivar a adoção de sistemas de IA pela indústria, colocando a tónica na confiança social e na responsabilidade da cadeia de valor;
4. Preparar o regulamento para o futuro através de uma melhor articulação com a transição ecológica e de possíveis mudanças na indústria, na tecnologia e no poder da IA.
O presente projeto de parecer centra‑se principalmente nos assuntos relacionados com as competências da Comissão ITRE, mas também em temáticas mais vastas relacionadas com a inovação, a competitividade, a investigação, a sustentabilidade e as futuras mudanças na indústria.
Apoiar a inovação, visar as empresas em fase de arranque e as PME, melhorar os ambientes de testagem da regulamentação
A relatora congratula‑se com a introdução do artigo 55.º sobre medidas para os pequenos fornecedores, mas considera que as PME e as empresas em fase de arranque devem ser mais envolvidas, numa abordagem holística, em todo o regulamento sobre a IA, mais concretamente, no desenvolvimento de códigos de conduta, na normalização e na representação no Comité Europeu para a Inteligência Artificial. Um dos principais objetivos da relatora é, principalmente, a criação de oportunidades para que as PME e as empresas em fase de arranque participem nos ambientes de testagem da regulamentação da IA. Por este motivo, a relatora propõe o reforço das disposições existentes, conferindo aos ambientes de testagem da regulamentação uma dimensão mais europeia, preservando a unidade do mercado único e apelando ao desenvolvimento de um programa de testagem da regulamentação da UE no domínio da IA, cujas modalidades são definidas num novo anexo.
Definição clara e normas realistas
A relatora apela ao recurso a uma definição internacionalmente reconhecida de «sistema de inteligência artificial», que esteja em consonância com os objetivos mais vastos da UE de estabelecer normas a nível mundial, trabalhar em estreita colaboração com os parceiros transatlânticos e os aliados que partilham as mesmas ideias e proporcionar segurança jurídica às empresas, aos cidadãos e à sociedade civil. No entender da relatora, normas elevadas em matéria de exatidão, robustez e cibersegurança, bem como os dados e a respetiva governação, são fundamentais para o desenvolvimento de sistemas de IA seguros que protejam os direitos fundamentais. O que importa neste contexto é equilibrar este objetivo com a abordagem prática e pragmática necessária para o alcançar. A relatora de parecer exorta à criação de uma autoridade europeia comum em matéria de avaliação comparativa que reúna as autoridades nacionais em matéria de metrologia e de avaliação comparativa, para definir uma abordagem unificada para medir a exatidão, a robustez e outros critérios pertinentes.
Incentivar a adoção de sistemas de IA, promovendo a confiança social e a responsabilidade da cadeia de valor
Para incentivar a adoção e a implantação de sistemas de IA, a relatora de parecer considera necessário promover a confiança social das empresas e dos cidadãos. A relatora de parecer procura dar resposta ao desafio da confiança social, incentivando uma relação de colaboração entre os criadores e os utilizadores de IA que esteja mais bem alinhada com as suas responsabilidades ao longo da cadeia de valor, reforçando os códigos de conduta e as medidas relativas aos ambientes de testagem da regulamentação, de molde a permitir a conformidade desde a conceção. Este aspeto, por seu turno, cria um ecossistema saudável e integrado, que contribuirá para reduzir a insegurança jurídica e as lacunas na aplicação, o que, por sua vez, aumentará a confiança social.
Preparação para o futuro, sustentabilidade e mudanças na indústria e no poder da IA
A IA é uma tecnologia amadurecida e pronta a usar, que pode ser utilizada para processar a quantidade crescente de dados criados ao longo de processos industriais. Para facilitar os investimentos em soluções de análise e otimização baseadas na IA, o presente regulamento deve proporcionar um ambiente previsível para as soluções industriais de baixo risco. Além disso, o presente regulamento deve ter em conta as futuras alterações na indústria e no poder da IA. A relatora de parecer propõe, por conseguinte, uma grande participação do Grupo de Peritos de Alto Nível sobre IA, quer com a Comissão, quer com o Comité Europeu para a Inteligência Artificial, bem como o acompanhamento das tendências do mercado e das previsões de mercado pelo Comité Europeu para a Inteligência Artificial.
ALTERAÇÕES
A Comissão da Indústria, da Investigação e da Energia insta a Comissão do Mercado Interno e da Proteção dos Consumidores e a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competentes quanto à matéria de fundo, a terem em conta as seguintes alterações:
Alteração 1
Proposta de regulamento
Considerando 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(3‑A) Além disso, para que os Estados‑Membros atinjam os seus objetivos em matéria de clima e cumpram os Objetivos de Desenvolvimento Sustentável (ODS) das Nações Unidas, as empresas da União devem ser incentivadas a utilizar os progressos tecnológicos disponíveis na concretização desse objetivo. A IA é uma tecnologia bem desenvolvida e pronta a usar, que pode ser utilizada para processar a quantidade crescente de dados criados ao longo dos processos industriais. Para facilitar os investimentos em soluções de análise e otimização baseadas em IA que possam ajudar a alcançar os objetivos climáticos, o presente regulamento deve oferecer um ambiente previsível e proporcionado para soluções industriais de baixo risco. A fim de assegurar a coerência, tal exige que os próprios sistemas de IA sejam concebidos de forma sustentável, para reduzir a utilização de recursos e o consumo de energia, limitando assim os danos para o ambiente. |
Alteração 2
Proposta de regulamento
Considerando 3‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(3‑B) Além disso, para promover o desenvolvimento da inteligência artificial em linha com os valores da União, esta deve colmatar as lacunas e ultrapassar os obstáculos principais que impedem o potencial da transformação digital, designadamente a escassez de trabalhadores com competências digitais, as preocupações em matéria de cibersegurança, a falta de investimento e de acesso ao investimento, bem como o fosso existente e potencial entre as grandes empresas e as PME. Deve‑se, em especial, garantir que os benefícios da inteligência artificial e da inovação em novas tecnologias se façam sentir em todas as regiões da União e que sejam disponibilizados investimentos e recursos suficientes, especialmente às regiões que possam estar atrasadas em alguns indicadores digitais. |
Alteração 3
Proposta de regulamento
Considerando 6
|
|
Texto da Comissão |
Alteração |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve basear‑se nas principais características funcionais do software, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve estar em consonância com as definições aceites a nível internacional. A definição deve basear‑se nas principais características funcionais do sistema de IA, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de fazer previsões, recomendações ou tomar decisões que que influenciem ambientes reais ou virtuais. Mais especificamente, a definição de «sistema de IA» deve ter em conta características fundamentais como a capacidade de perceber ambientes reais e/ou virtuais, de abstrair essas perceções em modelos através de análises automatizadas e de utilizar inferências de modelos para formular opções de informação ou de ação. Os sistemas de IA são concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. Ao elaborar esses atos delegados, a Comissão deve assegurar a consulta de todas as partes interessadas relevantes, incluindo os especialistas técnicos e os criadores de sistemas de IA. Essa consulta pode ser realizada através de organismos existentes, como o Grupo de Peritos de Alto Nível sobre IA ou um organismo consultivo semelhante recentemente criado que esteja estreitamente incluído nos trabalhos do Comité Europeu para a Inteligência Artificial. Além disso, a Comissão deve dialogar com as principais organizações internacionais, como a Organização de Cooperação e de Desenvolvimento Económicos e outras organizações fundamentais que trabalham na definição de sistemas de IA, a fim de assegurar o alinhamento entre as definições de IA, mantendo simultaneamente a prerrogativa da União de criar a sua própria definição e normas através da adoção de legislação. |
Alteração 4
Proposta de regulamento
Considerando 12‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(12‑A) O presente regulamento não deve prejudicar as atividades de investigação e desenvolvimento e deve respeitar a liberdade da ciência. É, por conseguinte, necessário assegurar que o presente regulamento não afete de outro modo a atividade de investigação e desenvolvimento científico sobre sistemas de IA. No que diz respeito à atividade de investigação orientada para os produtos por parte dos fornecedores, o presente regulamento deve ser aplicável na medida em que essa investigação conduza ou implique a colocação no mercado de um sistema de IA ou a sua colocação em serviço. Seja em que circunstância for, qualquer atividade de investigação e desenvolvimento deve ser realizada em conformidade com normas éticas reconhecidas em matéria de investigação científica. |
Alteração 5
Proposta de regulamento
Considerando 29
|
|
Texto da Comissão |
Alteração |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40, do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho46, é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, de avaliação da conformidade e de execução existentes nem com as autoridades estabelecidas nestes regulamentos. |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40, do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho46, é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, de avaliação da conformidade e de execução existentes nem com as autoridades estabelecidas nestes regulamentos. Além disso, são necessárias regras de normalização eficazes para tornar operacionais os requisitos do presente regulamento. As instituições da União, em especial a Comissão, devem identificar, juntamente com as empresas, os setores de IA em que existe uma maior necessidade de normalização, a fim de evitar a fragmentação do mercado e preservar e reforçar ainda mais a integração do nosso Sistema Europeu de Normalização no âmbito do Sistema Internacional de Normalização (ISO, IEC). |
|
|
__________________ |
__________________ |
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
Alteração 6
Proposta de regulamento
Considerando 44
|
|
Texto da Comissão |
Alteração |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste são concebidos com os melhores esforços possíveis para assegurar que são relevantes, representativos, livres de erros e adequadamente verificados quanto à existência de erros, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado, devendo ser dada especial atenção à atenuação de eventuais enviesamentos dos conjuntos de dados, que possam resultar em riscos para os direitos fundamentais ou em discriminação para as pessoas afetadas pelo sistema de IA de risco elevado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente geográfico, comportamental, contextual ou funcional no qual o sistema de IA será utilizado, com especial atenção para a as mulheres, os grupos vulneráveis e as crianças. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
Alteração 7
Proposta de regulamento
Considerando 46
|
|
Texto da Comissão |
Alteração |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento, é essencial dispor de informações sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada. |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento e permitir aos utilizadores tomar decisões informadas e autónomas sobre a utilização de sistemas de IA de risco elevado, é essencial dispor de informações exaustivas sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada. |
Alteração 8
Proposta de regulamento
Considerando 49
|
|
Texto da Comissão |
Alteração |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. O nível e as métricas de exatidão devem ser comunicadas aos utilizadores. |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. As métricas de exatidão e o seu nível esperado devem ser definidos com o objetivo principal de atenuar os riscos e o impacto negativo do sistema de IA nas pessoas e na sociedade em geral. O nível e as métricas esperadas de exatidão devem ser comunicadas aos utilizadores de forma clara, transparente, fácil de compreender e inteligível. A declaração de métricas de exatidão não deve, no entanto, ser considerada prova de níveis futuros, sendo necessário aplicar métodos relevantes para garantir níveis sustentáveis durante a utilização. Embora existam organizações de normalização para definir normas, é necessária coordenação em matéria de avaliação comparativa para estabelecer como essas normas devem ser cumpridas e medidas. O Comité Europeu para a Inteligência Artificial deve reunir as autoridades nacionais de metrologia e de avaliação comparativa e fornecer orientações não vinculativas para abordar os aspetos técnicos de como medir os níveis adequados de exatidão e de robustez. |
Alteração 9
Proposta de regulamento
Considerando 50
|
|
Texto da Comissão |
Alteração |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. Os utilizadores do sistema de IA devem tomar medidas para assegurar que o eventual compromisso entre a robustez e a exatidão não conduza a resultados discriminatórios ou negativos para os subgrupos minoritários. |
Alteração 10
Proposta de regulamento
Considerando 51
|
|
Texto da Comissão |
Alteração |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal‑intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou por em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal‑intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou por em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos ou de confidencialidade), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado, bem como os organismos notificados, as autoridades nacionais competentes e as autoridades de fiscalização do mercado, devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. Os sistemas de IA de risco elevado devem ser acompanhados de soluções e correções de segurança ao longo da vida do produto, ou, em caso de ausência de dependência de um produto específico, durante um período de tempo que deve ser declarado pelo fabricante. |
Alteração 11
Proposta de regulamento
Considerando 61
|
|
Texto da Comissão |
Alteração |
(61) A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho54, deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. Contudo, a Comissão pode adotar especificações técnicas comuns em domínios onde não existem normas harmonizadas ou onde estas são insuficientes. |
(61) A normalização deve desempenhar um papel fundamental, disponibilizando aos fornecedores soluções técnicas que assegurem o cumprimento do presente regulamento. O cumprimento de normas harmonizadas, conforme definido no Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho54, deve constituir um meio de os fornecedores demonstrarem a conformidade com os requisitos do presente regulamento. Para além dos pormenores técnicos, o processo de normalização também deve ter em conta os riscos para os direitos fundamentais, o ambiente e a sociedade em geral, bem como outros aspetos democráticos e sociotécnicos do sistema de IA, e deve assegurar que os peritos em matérias relevantes são incluídos e consultados no processo de normalização. O processo de normalização deve ser transparente no que diz respeito às pessoas singulares e coletivas que participam nas atividades de normalização. Contudo, a Comissão pode adotar especificações técnicas comuns em domínios onde não existem normas harmonizadas ou onde estas são insuficientes. Ao elaborar essas especificações comuns, a Comissão deve ter em conta os pontos de vista das partes interessadas relevantes, em particular quando as especificações comuns abordam preocupações específicas em matéria de direitos fundamentais. Em especial, a Comissão deve adotar especificações comuns que estabeleçam como os sistemas de gestão de riscos devem dar especial atenção ao impacto nas crianças. |
__________________ |
__________________ |
54 Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.º 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12). |
54 Regulamento (UE) n.º 1025/2012 do Parlamento Europeu e do Conselho, de 25 de outubro de 2012, relativo à normalização europeia, que altera as Diretivas 89/686/CEE e 93/15/CEE do Conselho e as Diretivas 94/9/CE, 94/25/CE, 95/16/CE, 97/23/CE, 98/34/CE, 2004/22/CE, 2007/23/CE, 2009/23/CE e 2009/105/CE do Parlamento Europeu e do Conselho e revoga a Decisão 87/95/CEE do Conselho e a Decisão n.º 1673/2006/CE do Parlamento Europeu e do Conselho (JO L 316 de 14.11.2012, p. 12). |
Alteração 12
Proposta de regulamento
Considerando 71
|
|
Texto da Comissão |
Alteração |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas e justificadas do ponto de vista ético. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial e torná‑los amplamente disponíveis em toda a União, a fim de facilitar o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. A identificação de quaisquer riscos significativos durante o desenvolvimento e a testagem dos sistemas de IA deve resultar na adoção imediata de medidas de atenuação ou, caso contrário, na suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
Alteração 13
Proposta de regulamento
Considerando 72
|
|
Texto da Comissão |
Alteração |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União, bem como a Carta dos Direitos Fundamentais da União Europeia e o Regulamento Geral sobre a Proteção de Dados; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial, a fim de prever as salvaguardas necessárias para reforçar a confiança e a dependência dos sistemas de IA; acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque; contribuir para a concretização dos objetivos em matéria de IA definidos no programa político «Guião para a Década Digital»; e contribuir para o desenvolvimento de sistemas de IA éticos, socialmente responsáveis e ambientalmente sustentáveis. Para permitir a participação efetiva das PME e das empresas em fase de arranque em ambientes de testagem da regulamentação, é necessário manter os custos de conformidade a níveis razoáveis, a fim de assegurar o desenvolvimento de soluções europeias fiáveis em matéria de inteligência artificial. É apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes, promovendo simultaneamente a inovação. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
Alteração 14
Proposta de regulamento
Considerando 72‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(72‑A) É conveniente que a criação de ambientes de testagem da regulamentação, atualmente deixada ao critério dos Estados‑Membros, seja, como próximo passo, convertida numa obrigação, com critérios bem estabelecidos, de modo a assegurar tanto a eficácia do sistema de IA como um acesso mais fácil por parte das empresas, em especial as PME. As empresas e as instituições de investigação devem participar no desenvolvimento das condições para a criação dos ambientes de testagem da regulamentação. |
Alteração 15
Proposta de regulamento
Considerando 73
|
|
Texto da Comissão |
Alteração |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados‑Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de literacia em IA e de sensibilização e comunicação de informações. Os Estados‑Membros devem utilizar os canais existentes e, se for caso disso, criar novos canais específicos para comunicação com as PME, as empresas em fase de arranque, os utilizadores e outros inovadores, a fim de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. Esses canais existentes podem incluir, entre outros, as Equipas de Resposta a Incidentes de Segurança Informática da ENISA, as autoridades nacionais de proteção de dados, a plataforma IA a pedido, os Polos Europeus de Inovação Digital e outros instrumentos relevantes financiados por programas da UE, bem como as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados‑Membros a nível nacional ou da União. Sempre que adequado, esses canais devem trabalhar em conjunto para criar sinergias e assegurar a homogeneidade da sua orientação às empresas em fase de arranque, às PME e aos utilizadores. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores e trabalhar com os Estados‑Membros para baixar esses custos. Por exemplo, os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados‑Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. As empresas de média dimensão que mudaram recentemente da categoria de pequena para média, na aceção da Recomendação 2003/361/CE, devem ter acesso a essas iniciativas e orientações durante um período de tempo considerado adequado pelos Estados‑Membros, uma vez que essas novas empresas de média dimensão podem, por vezes, não dispor dos recursos jurídicos e da formação necessários para assegurar a compreensão e o cumprimento adequados das disposições. |
Alteração 16
Proposta de regulamento
Considerando 76‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(76‑A) Deve ser criado um Comité Consultivo para a Inteligência Artificial («Comité Consultivo»), como subgrupo do Comité, composto por representantes relevantes da indústria, da investigação, do meio académico, da sociedade civil, das organizações de normalização, dos parceiros sociais, das PME, dos peritos em direitos fundamentais e outras partes interessadas relevantes, representando todos os Estados‑Membros, a fim de manter o equilíbrio geográfico. O Comité Consultivo deve apoiar o trabalho do Comité, oferecendo aconselhamento relativamente às funções do Comité. O Comité Consultivo deve nomear um representante para assistir às reuniões do Comité e participar nos seus trabalhos. |
Alteração 17
Proposta de regulamento
Considerando 81
|
|
Texto da Comissão |
Alteração |
(81) O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado, de acordo com os requisitos do presente regulamento pode conduzir a uma maior utilização de inteligência artificial fiável na União. Os fornecedores de sistemas de IA que não são de risco elevado devem ser incentivados a criar códigos de conduta que visem promover a aplicação voluntária dos requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado. Os fornecedores devem ainda ser incentivados a aplicar voluntariamente requisitos adicionais relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento. A Comissão pode desenvolver iniciativas, incluindo de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiras de dados para o desenvolvimento da inteligência artificial, incluindo em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica de diferentes tipos de dados. |
(81) O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado, de acordo com os requisitos do presente regulamento pode conduzir a uma maior utilização de inteligência artificial fiável, socialmente responsável e ambientalmente sustentável na União. Os fornecedores de sistemas de IA que não são de risco elevado devem ser incentivados a criar códigos de conduta que visem promover a aplicação voluntária dos requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado. Os fornecedores devem ainda ser incentivados a aplicar voluntariamente requisitos adicionais relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento. A Comissão pode desenvolver iniciativas, incluindo de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiras de dados para o desenvolvimento da inteligência artificial, incluindo em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica de diferentes tipos de dados. |
Alteração 18
Proposta de regulamento
Artigo 2 – n.º 5‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑A. O presente regulamento não deve afetar as atividades de investigação relativas a sistemas de IA, desde que essas atividades não conduzam nem impliquem a colocação de um sistema de IA no mercado ou a sua entrada em serviço. Essas atividades de investigação não devem violar os direitos fundamentais das pessoas afetadas. |
Alteração 19
Proposta de regulamento
Artigo 2 – n.º 5‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑B. O presente regulamento não se aplica a sistemas de IA, incluindo os respetivos resultados, especificamente desenvolvidos e colocados em serviço exclusivamente para fins de investigação científica no interesse geral da União. |
Alteração 20
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1
|
|
Texto da Comissão |
Alteração |
1) «Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas no anexo I, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
1) «Sistema de inteligência artificial» (sistema de IA), um sistema baseado em máquinas que pode, com níveis variados de autonomia, para um determinado conjunto de objetivos definidos por seres humanos, fazer previsões, criar conteúdos, oferecer recomendações ou tomar decisões que influenciam os ambientes reais ou virtuais com os quais interage; |
Alteração 21
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑A) «Autonomia», um sistema de IA que funciona interpretando alguns dados e obedecendo a um conjunto de objetivos predeterminados, sem estar limitado a essas instruções, apesar de o comportamento do sistema estar limitado e ser destinado a atingir o objetivo que lhe foi atribuído e por outras escolhas de conceção tomadas pelo criador; |
Alteração 22
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 2
|
|
Texto da Comissão |
Alteração |
2) «Fornecedor», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido com vista à sua colocação no mercado ou colocação em serviço sob o seu próprio nome ou marca, a título oneroso ou gratuito; |
2) «Fornecedor», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido e o coloca no mercado ou em serviço sob o seu próprio nome ou marca, a título oneroso ou gratuito; |
Alteração 23
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 14
|
|
Texto da Comissão |
Alteração |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema e cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
Alteração 24
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44 – parte introdutória
|
|
Texto da Comissão |
Alteração |
44) «Incidente grave», qualquer incidente que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
44) «Incidente grave», qualquer incidente ou anomalia de um sistema de IA que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
Alteração 25
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A morte de uma pessoa ou danos graves para a saúde de uma pessoa, bens, ou o ambiente, |
a) A morte de uma pessoa ou danos graves para os direitos fundamentais, a saúde, a segurança ou os bens de uma pessoa ou o ambiente, |
Alteração 26
Proposta de regulamento
Artigo 1 – parágrafo 1 – ponto 44 – alínea b‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b‑A) Uma violação das obrigações decorrentes do direito da União destinadas a proteger os direitos fundamentais. |
Alteração 27
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑A) «Ambiente de testagem da regulamentação», instrumento criado pelas autoridades competentes de um ou mais Estados‑Membros em colaboração com a Comissão ou pela Autoridade Europeia para a Proteção de Dados que proporciona um ambiente adequado, controlado e flexível destinado a facilitar o desenvolvimento, a testagem e a validação segura de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço, de acordo com um plano específico; |
Alteração 28
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑B) «Literacia em IA», as competências, o conhecimento e a compreensão relativos aos sistemas de IA necessários para o cumprimento e a aplicação do presente regulamento; |
Alteração 29
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑C) «Falsificação profunda», material áudio e/ou visual manipulado ou sintético aparentemente autêntico, que retrata situações que nunca ocorreram e que é produzido utilizando técnicas no domínio da inteligência artificial, incluindo a aprendizagem automática e a aprendizagem profunda, sem que o utilizador, ou o utilizador final, tenha consciência de que o material áudio e/ou visual foi produzido utilizando inteligência artificial; |
Alteração 30
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑D (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑D) «Infraestrutura crítica», um bem, um sistema ou parte dele que seja necessário para a prestação de um serviço essencial para a manutenção de funções sociais ou atividades económicas vitais, na aceção do artigo 2.º, n.os 4 e 5, da Diretiva ____ relativa à resiliência das entidades críticas (2020/0365(COD)); |
Alteração 31
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑E (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑E) «Dados pessoais», os dados pessoais na aceção do artigo 4.º, ponto 1, do Regulamento (UE) 2016/679; |
Alteração 32
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑F (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑F) «Dados não pessoais», os dados que não sejam dados pessoais na aceção do artigo 4.º, ponto 1, do Regulamento (UE) 2016/679; |
Alteração 33
Proposta de regulamento
Artigo 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para alterar a lista de técnicas e abordagens enumeradas no anexo I, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista. |
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para alterar a lista de técnicas e abordagens enumeradas no anexo I, no âmbito da definição de um sistema de IA prevista no artigo 3.º, n.º 1, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista. |
Alteração 34
Proposta de regulamento
Artigo 4 – parágrafo 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
Ao elaborar esses atos delegados, a Comissão deve assegurar a consulta de todas as partes interessadas relevantes, como os peritos técnicos e os criadores de sistemas de IA. |
Alteração 35
Proposta de regulamento
Artigo 10 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5. |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, avaliações, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5, desde que tal seja viável do ponto de vista técnico e tendo simultaneamente em conta as medidas mais avançadas, em função do segmento de mercado ou o âmbito de aplicação em questão. |
Alteração 36
Proposta de regulamento
Artigo 10 – n.º 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑A. Técnicas como a aprendizagem não supervisionada e a aprendizagem por reforço, que não utilizem conjuntos de dados de validação e de teste, devem ser desenvolvidas com base em conjuntos de dados de treino e nos critérios de qualidade referidos nos n.os 2 a 5. |
Alteração 37
Proposta de regulamento
Artigo 10 – n.º 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑B. Os fornecedores de sistemas de IA de risco elevado que utilizam dados recolhidos e/ou geridos por terceiros podem confiar nas representações desses terceiros no que diz respeito aos critérios de qualidade referidos no n.º 2, alíneas a), b) e c). |
Alteração 38
Proposta de regulamento
Artigo 10 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Os conjuntos de dados de treino, validação e teste devem estar sujeitos a práticas adequadas de governação e gestão de dados. Essas práticas dizem nomeadamente respeito: |
2. Os conjuntos de dados de treino, avaliação, validação e teste devem estar sujeitos a práticas adequadas de governação e gestão de dados durante todo o ciclo de vida do tratamento de dados. Essas práticas dizem nomeadamente respeito aos seguintes elementos: |
Alteração 39
Proposta de regulamento
Artigo 10 – n.º 2 – alínea a‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a‑A) À transparência quanto à finalidade original da recolha de dados; |
Alteração 40
Proposta de regulamento
Artigo 10 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) À recolha de dados; |
b) A processos de recolha de dados; |
Alteração 41
Proposta de regulamento
Artigo 10 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Ao exame para detetar eventuais enviesamentos; |
f) Ao exame para detetar eventuais enviesamentos suscetíveis de afetar a saúde ou a segurança das pessoas, de afetar negativamente os direitos fundamentais ou de resultar em discriminações proibidas pelo direito da União, incluindo os casos em que os resultados dos dados são usados como dados de entrada para futuras operações («circuitos de realimentação»); |
Alteração 42
Proposta de regulamento
Artigo 10 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) À identificação de eventuais lacunas ou deficiências de dados e de possíveis soluções para as mesmas. |
g) À identificação de lacunas ou deficiências de dados e de possíveis soluções para as mesmas. |
Alteração 43
Proposta de regulamento
Artigo 10 – n.º 2 – alínea g‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g‑A) À finalidade e ao ambiente em que o sistema será utilizado. |
Alteração 44
Proposta de regulamento
Artigo 10 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
3. São envidados os melhores esforços possíveis para conceber os conjuntos de dados de treino, validação e teste para assegurar que são pertinentes, representativos e adequadamente verificados quanto à existência de erros, tendo em vista a finalidade prevista do sistema de IA. Em particular, devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
Alteração 45
Proposta de regulamento
Artigo 10 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental, contextual ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
Alteração 46
Proposta de regulamento
Artigo 15 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem, tendo em conta a finalidade prevista, um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de acordo com o princípio da segurança desde a conceção e por defeito. Tendo em conta a finalidade prevista, devem atingir um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida. O respeito desses requisitos deve incluir a implementação das medidas mais avançadas, em função do segmento de mercado ou do âmbito de aplicação em questão. |
Alteração 47
Proposta de regulamento
Artigo 15 – n.º 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑A. A fim de abordar os aspetos técnicos de como medir os níveis adequados de exatidão e de robustez estabelecidos no n.º 1 do presente artigo, o Comité Europeu para a Inteligência Artificial deve reunir as autoridades nacionais de metrologia e de avaliação comparativa e fornecer orientações não vinculativas sobre a matéria, tal como previsto no artigo 56.º, n.º 2, alínea a). |
Alteração 48
Proposta de regulamento
Artigo 15 – n.º 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑B. Para resolver quaisquer questões emergentes no mercado interno no que diz respeito à cibersegurança, a Agência da União Europeia para a Cibersegurança (ENISA) deve participar juntamente com o Comité Europeu para a Inteligência Artificial, tal como previsto no artigo 56.º, n.º 2, alínea b). |
Alteração 49
Proposta de regulamento
Artigo 15 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável. |
2. As instruções de utilização que acompanham os sistemas de IA de risco elevado devem declarar os níveis de exatidão e a métrica de exatidão aplicável. A linguagem utilizada deve ser clara e não deve ser propícia a mal‑entendidos ou interpretações erróneas. |
Alteração 50
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado devem ser resistentes a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Devem ser adotadas medidas técnicas e organizativas para assegurar que os sistemas de IA de risco elevado sejam tão resistentes quanto possível a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Alteração 51
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
A solidez dos sistemas de IA de risco elevado pode ser alcançada por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas. |
A solidez dos sistemas de IA de risco elevado pode ser alcançada pelo fornecedor adequado com o contributo do utilizador, sempre que necessário, por via de soluções de redundância técnica, que podem incluir planos de reserva ou de segurança à prova de falhas. |
Alteração 52
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados devido a resultados usados como dados de entrada para futuras operações («circuitos de realimentação») sejam devidamente abordados por via de medidas de atenuação adequadas. |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados que influenciem dados de entrada para futuras operações («circuitos de realimentação») e a manipulação maliciosa dos dados de entrada utilizados na aprendizagem durante a operação sejam devidamente abordados por via de medidas de atenuação adequadas. |
Alteração 53
Proposta de regulamento
Artigo 15 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização ou desempenho explorando as vulnerabilidades do sistema. |
Os sistemas de IA de risco elevado devem ser resistentes a tentativas de terceiros não autorizados de alterar a sua utilização, comportamento, resultados ou desempenho explorando as vulnerabilidades do sistema. |
Alteração 54
Proposta de regulamento
Artigo 15 – n.º 4 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos»), ou falhas do modelo. |
As soluções técnicas para resolver vulnerabilidades específicas da inteligência artificial devem incluir, se for caso disso, medidas para prevenir, detetar, responder, resolver e controlar ataques que visem manipular o conjunto de dados de treino («contaminação de dados»), ou componentes pré‑treinados utilizados no treino («contaminação de modelos»), dados de entrada preparados para fazer com que o modelo cometa um erro («exemplos antagónicos» ou «evasão de modelos»), ataques de confidencialidade ou falhas do modelo, que podem resultar em tomadas de decisão prejudiciais. |
Alteração 55
Proposta de regulamento
Artigo 40 – parágrafo 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
A Comissão deve assegurar que o processo de elaboração de normas harmonizadas tem em conta os riscos para os direitos fundamentais, o ambiente e a sociedade em geral. |
Alteração 56
Proposta de regulamento
Artigo 40 – parágrafo 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
A Comissão deve assegurar que o processo de elaboração de normas harmonizadas sobre sistemas de IA está aberto às partes interessadas, incluindo as PME, em conformidade com os artigos 5.º e 6.º do Regulamento (UE) n.º 1025/2012. |
Alteração 57
Proposta de regulamento
Artigo 40 – parágrafo 1‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
Para tal, a Comissão deve canalizar fundos, em conformidade com o artigo 17.º do Regulamento (UE) n.º 1025/2012, para facilitar a sua participação efetiva. |
Alteração 58
Proposta de regulamento
Artigo 1 – n.º 1‑D (novo)
|
|
Texto da Comissão |
Alteração |
|
A Comissão deve rever as normas harmonizadas antes da sua publicação no Jornal Oficial e preparar um relatório que descreva a sua adequação com os n.os 1‑A e 1‑B do presente artigo. |
Alteração 59
Proposta de regulamento
Artigo 41 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Na ausência das normas harmonizadas a que se refere o artigo 40.º ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas em termos de segurança ou direitos fundamentais, a Comissão pode, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
1. Na ausência das normas harmonizadas a que se refere o artigo 40.º ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas e prementes em termos de segurança ou direitos fundamentais, que não podem ser suficientemente resolvidas pela elaboração de normas harmonizadas, a Comissão pode, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
Alteração 60
Proposta de regulamento
Artigo 41 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável. |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões de criadores e fornecedores de sistemas de IA de risco elevado, bem como das partes interessadas pertinentes, nomeadamente PME e empresas em fase de arranque, sociedade civil e parceiros sociais, ou grupos de peritos criados nos termos do direito setorial da União aplicável. |
Alteração 61
Proposta de regulamento
Artigo 42 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Tendo em conta a sua finalidade prevista, presume‑se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental e funcional específico no qual se destinam a ser utilizados são conformes com o requisito estabelecido no artigo 10.º, n.º 4. |
1. Tendo em conta a sua finalidade prevista, presume‑se que os sistemas de IA de risco elevado que foram treinados e testados com recurso a dados relativos ao enquadramento geográfico, comportamental, contextual e funcional específico no qual se destinam a ser utilizados são conformes com o requisito estabelecido no artigo 10.º, n.º 4. |
Alteração 62
Proposta de regulamento
Artigo 42 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Presume‑se que os sistemas de IA de risco elevado que foram certificados ou relativamente aos quais foi emitida uma declaração de conformidade no âmbito de um sistema de certificação da cibersegurança estabelecido nos termos do Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho63 e cujas referências foram publicadas no Jornal Oficial da União Europeia são conformes com os requisitos de cibersegurança estabelecidos no artigo 15.º do presente regulamento, contanto que o certificado de cibersegurança ou a declaração de conformidade ou partes dos mesmos abranjam esses requisitos. |
2. Presume‑se que os sistemas de IA de risco elevado que foram certificados ou relativamente aos quais foi emitida uma declaração de conformidade no âmbito de um sistema de certificação da cibersegurança estabelecido nos termos do Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho63 e cujas referências foram publicadas no Jornal Oficial da União Europeia são conformes com os requisitos de cibersegurança estabelecidos no artigo 15.º do presente regulamento, sempre que aplicável, contanto que o certificado de cibersegurança ou a declaração de conformidade ou partes dos mesmos abranjam esses requisitos. |
__________________ |
__________________ |
63 Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho, de 17 de abril de 2019, relativo à ENISA (Agência da União Europeia para a Cibersegurança) e à certificação da cibersegurança das tecnologias da informação e comunicação e que revoga o Regulamento (UE) n.º 526/2013 (Regulamento Cibersegurança) (JO L 151 de 7.6.2019, p. 1). |
63 Regulamento (UE) 2019/881 do Parlamento Europeu e do Conselho, de 17 de abril de 2019, relativo à ENISA (Agência da União Europeia para a Cibersegurança) e à certificação da cibersegurança das tecnologias da informação e comunicação e que revoga o Regulamento (UE) n.º 526/2013 (Regulamento Cibersegurança) (JO L 151 de 7.6.2019, p. 1). |
Alteração 63
Proposta de regulamento
Artigo 43 – n.º 1 – parágrafo 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
Caso o prestador já tenha estabelecido uma organização e estruturas internas para as avaliações ou os requisitos de conformidade existentes ao abrigo de outras regras em vigor, pode utilizar essas estruturas de conformidade existentes, ou partes delas, desde que tenham igualmente a capacidade e a competência necessárias para cumprir os requisitos aplicáveis ao produto estabelecidos no presente regulamento. |
Alteração 64
Proposta de regulamento
Artigo 43 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica. |
5. A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para atualizar os anexos VI e VII, a fim de introduzir elementos dos procedimentos de avaliação da conformidade que se tornem necessários à luz da evolução técnica. A Comissão consulta o Comité Europeu para a Inteligência Artificial, criado no artigo 56.º, bem como todas as partes interessadas pertinentes. |
Alteração 65
Proposta de regulamento
Artigo 43 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. A Comissão consulta o Comité Europeu para a Inteligência Artificial, criado no artigo 56.º, bem como todas as partes interessadas pertinentes. |
Alteração 66
Proposta de regulamento
Artigo 44 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa língua oficial da União determinada pelo Estado‑Membro em que estiver estabelecido o organismo notificado ou numa outra língua oficial da União aceite pelo organismo notificado. |
1. Os certificados emitidos por organismos notificados nos termos do anexo VII devem ser redigidos numa ou várias línguas oficiais determinadas pelo Estado‑Membro em que estiver estabelecido o organismo notificado ou numa ou várias línguas oficiais aceites pelo organismo notificado. |
Alteração 67
Proposta de regulamento
Artigo 48 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O fornecedor deve elaborar uma declaração de conformidade UE escrita para cada sistema de IA e mantê‑la à disposição das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA. A declaração de conformidade UE deve especificar o sistema de IA para o qual foi elaborada. Deve ser fornecida uma cópia da declaração de conformidade UE às autoridades nacionais competentes, mediante pedido. |
1. O fornecedor deve elaborar uma declaração de conformidade UE escrita para cada sistema de IA e mantê‑la à disposição das autoridades nacionais competentes por um período de dez anos a contar da data de colocação no mercado ou colocação em serviço do sistema de IA. A declaração de conformidade UE deve especificar o sistema de IA para o qual foi elaborada. Deve ser fornecida uma cópia da declaração de conformidade da UE às autoridades nacionais competentes do Estado‑Membro em cujo território o fornecedor tem o seu estabelecimento principal, mediante pedido da mesma. |
Alteração 68
Proposta de regulamento
Artigo 51 – parágrafo 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
Um sistema de IA de risco elevado concebido, desenvolvido, treinado, validado, testado ou aprovado para ser colocado no mercado ou colocado em serviço, fora da União, só pode ser registado na base de dados da UE referida no artigo 60.º e colocado no mercado ou colocado em serviço na União se for provado que em todas as fases da sua conceção, desenvolvimento, treino, validação, teste ou aprovação foram cumpridas todas as obrigações exigidas desse tipo de sistemas de IA na União. |
Alteração 69
Proposta de regulamento
Artigo 51 – n.º 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
Antes de utilizar um sistema de IA de risco elevado referido no artigo 6.º, n.º 2, o utilizador ou, se for caso disso, o mandatário deve registar as utilizações desse sistema na base de dados da UE a que se refere o artigo 60.º. O utilizador deve efetuar uma nova entrada de registo para cada utilização de risco elevado do sistema de IA. |
Alteração 70
Proposta de regulamento
Artigo 53 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados‑Membros ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. Tal deve ocorrer sob a supervisão e orientação diretas das autoridades competentes com vista a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados‑Membros supervisionada no ambiente de testagem. |
1. Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados‑Membros em colaboração com a Comissão ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação segura de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. As PME, as empresas em fase de arranque, as outras empresas, os inovadores ou outros intervenientes relevantes podem ser incluídos como parceiros nos ambientes de testagem da regulamentação. Tal deve ocorrer sob a supervisão e orientação diretas da Comissão, em colaboração com as autoridades competentes, com vista a identificar os riscos, especialmente para a saúde, a segurança e os direitos fundamentais, e a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados‑Membros supervisionada no ambiente de testagem. A Comissão deve desempenhar um papel complementar, permitindo que os Estados‑Membros com experiência comprovada nos ambientes de testagem tirem partido dos seus conhecimentos especializados e, por outro lado, ajudem e forneçam conhecimentos e recursos técnicos aos Estados‑Membros que procuram orientações sobre a criação e o funcionamento desses ambientes de testagem da regulamentação. |
Alteração 71
Proposta de regulamento
Artigo 53 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os Estados‑Membros devem assegurar que, no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados, as autoridades nacionais de proteção de dados e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA. |
2. Os Estados‑Membros, em colaboração com a Comissão, devem assegurar que, no caso de os sistemas de IA inovadores envolverem o tratamento de dados pessoais ou de outro modo se enquadrarem na competência de supervisão de outras autoridades nacionais ou autoridades competentes que disponibilizam ou apoiam o acesso a dados, as autoridades nacionais de proteção de dados e essas outras autoridades nacionais são associadas ao funcionamento do ambiente de testagem da regulamentação da IA. |
Alteração 72
Proposta de regulamento
Artigo 53 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes, nomeadamente a nível local ou regional. A identificação de quaisquer riscos significativos para a saúde e a segurança, os direitos fundamentais, a democracia ou o ambiente durante o desenvolvimento e a testagem desses sistemas de IA deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
Alteração 73
Proposta de regulamento
Artigo 53 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. As autoridades competentes dos Estados‑Membros que criaram ambientes de testagem da regulamentação da IA devem coordenar as suas atividades e cooperar no quadro do Comité Europeu para a Inteligência Artificial. Essas autoridades devem apresentar relatórios anuais ao Comité e à Comissão sobre os resultados da aplicação desse sistema, incluindo boas práticas, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. |
5. As autoridades competentes dos Estados‑Membros e a Comissão devem coordenar as suas atividades no que diz respeito aos ambientes de testagem da regulamentação da IA e cooperar no quadro do Comité Europeu para a Inteligência Artificial. A comissão deve apresentar relatórios anuais ao Comité Europeu para a Inteligência Artificial sobre os resultados da aplicação desses sistemas, incluindo boas práticas, utilização de energia e eficiência energética computacional, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. As PME, as empresas em fase de arranque, as outras empresas e outros inovadores devem ser convidados a partilhar as suas boas práticas, ensinamentos retirados e recomendações sobre os seus ambientes de testagem da regulamentação da IA com as autoridades competentes dos Estados‑Membros. |
Alteração 74
Proposta de regulamento
Artigo 53 – n.º 6‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
6‑A. A Comissão deve estabelecer um programa de trabalho da UE sobre ambientes de testagem da regulamentação da IA, cujas modalidades referidas no artigo 53.º, n.º 6, devem abranger os elementos estabelecidos no anexo IX‑A. A Comissão deve coordenar‑se, proativamente, com as autoridades locais e nacionais, sempre que relevante. |
Alteração 75
Proposta de regulamento
Artigo 55 – título
|
|
Texto da Comissão |
Alteração |
Medidas para fornecedores e utilizadores de pequena dimensão |
Medidas para PME, empresas em fase de arranque e utilizadores |
Alteração 76
Proposta de regulamento
Artigo 55 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Proporcionar aos fornecedores de pequena dimensão e às empresas em fase de arranque acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
a) Proporcionar às PME e às empresas em fase de arranque estabelecidas na União acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
Alteração 77
Proposta de regulamento
Artigo 55 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Organizar atividades de sensibilização específicas sobre a aplicação do presente regulamento adaptadas às necessidades dos fornecedores e utilizadores de pequena dimensão; |
b) Organizar atividades de sensibilização específicas e de desenvolvimento de capacidades digitais aprofundadas sobre a aplicação do presente regulamento adaptadas às necessidades das PME, empresas em fase de arranque e utilizadores; |
Alteração 78
Proposta de regulamento
Artigo 55 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Se for caso disso, criar um canal específico para comunicação com fornecedores e utilizadores de pequena dimensão e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
c) Utilizar os canais específicos existentes e, se for caso disso, criar novos canais específicos para comunicação com as PME, as empresas em fase de arranque, os utilizadores e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
Alteração 79
Proposta de regulamento
Artigo 55 – n.º 1 – alínea c‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c‑A) Promover a participação das PME e de outras partes interessadas relevantes no processo de desenvolvimento da normalização; |
Alteração 80
Proposta de regulamento
Artigo 55 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.º, reduzindo essas taxas proporcionalmente à sua dimensão e à dimensão do mercado. |
2. Os interesses e as necessidades específicas das PME, das empresas em fase de arranque e dos utilizadores devem ser tidas em conta aquando da fixação das taxas a pagar pela avaliação da conformidade nos termos do artigo 43.º, reduzindo essas taxas proporcionalmente à sua fase de desenvolvimento, à sua dimensão, à dimensão do mercado e à procura do mercado. A Comissão deve avaliar regularmente os custos de certificação e de conformidade para as PME e as empresas em fase de arranque, nomeadamente através de consultas transparentes com PME, empresas em fase de arranque e utilizadores e trabalhar com os Estados‑Membros para baixar esses custos, onde possível. A Comissão deve apresentar informações sobre essas conclusões ao Parlamento Europeu e ao Conselho no âmbito do relatório sobre a avaliação e revisão do presente regulamento prevista no artigo 84.º, n.º 2. |
Alteração 81
Proposta de regulamento
Artigo 57 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. O Comité deve criar um Comité Consultivo para a IA (o «Comité Consultivo»). O Comité Consultivo deve ser composto por representantes relevantes da indústria, da investigação, do mundo académico, da sociedade civil e das organizações de normalização e por outras partes ou terceiros interessados relevantes designados pelo Comité, representando todos os Estados‑Membros para manter o equilíbrio geográfico. O Comité Consultivo deve apoiar o trabalho do Comité, providenciando aconselhamento relacionado com as funções deste último. O Comité Consultivo deve nomear um representante competente, com base na configuração das reuniões do Comité, para assistir às reuniões deste último e participar nos seus trabalhos. A composição do Comité Consultivo e as suas recomendações ao Comité devem ser tornadas públicas. |
Alteração 82
Proposta de regulamento
Anexo I – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Abordagens estatísticas, estimação de Bayes, métodos de pesquisa e otimização. |
c) Abordagens estatísticas da aprendizagem e inferência, estimação de Bayes, métodos de pesquisa e otimização. |
Alteração 83
Proposta de regulamento
Anexo IX‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
ANEXO IX‑A |
|
Modalidades para um programa de trabalho da UE sobre ambientes de testagem da regulamentação da IA |
|
1. Os ambientes de testagem da regulamentação da IA devem fazer parte do programa de trabalho da UE sobre ambientes de testagem da regulamentação da IA («programa de ambientes de testagem»), a criar pela Comissão, em colaboração com os Estados‑Membros. |
|
2. A Comissão deve desempenhar um papel complementar, permitindo que os Estados‑Membros com experiência comprovada nos ambientes de testagem tirem partido dos seus conhecimentos especializados e dos conhecimentos especializados das partes interessadas relevantes da indústria, das PME, do mundo académico e da sociedade civil e, por outro lado, ajudem e forneçam conhecimentos e recursos técnicos aos Estados‑Membros que procuram orientações sobre a criação desses ambientes de testagem da regulamentação. |
|
3. Os critérios de acesso aos ambientes de testagem da regulamentação devem ser transparentes e competitivos. |
|
4. Os participantes no programa de ambientes de testagem, em especial os fornecedores de pequena dimensão, devem ter acesso a serviços de pré‑implantação, como o registo preliminar do seu sistema de IA, os serviços de apoio à conformidade com I&D, e a todos os outros elementos pertinentes do ecossistema de IA da União, bem como a outras iniciativas do mercado único digital, como as instalações de ensaio e experimentação, os polos digitais, os centros de excelência e as capacidades de avaliação comparativa da UE, e a outros serviços de valor acrescentado, como os documentos de normalização e a certificação, consulta e apoio à realização de avaliações de impacto dos sistemas de IA nos direitos fundamentais, no ambiente ou na sociedade em geral, uma plataforma social em linha para a comunidade, bases de dados de contacto, o portal existente para concursos e concessão de subvenções e listas de investidores da UE. |
|
5. O programa de ambientes de testagem deve, numa fase posterior de desenvolvimento, procurar ajudar os Estados‑Membros a desenvolver e gerir dois tipos de ambientes de testagem da regulamentação: ambientes de testagem de regulamentação física para sistemas de IA incorporados em produtos ou serviços físicos e ambientes de testagem de ciber‑regulamentação para sistemas de IA operados e utilizados autonomamente, não incorporados em produtos ou serviços físicos. |
|
6. O programa de ambientes de testagem deve trabalhar com os Polos de Inovação Digital já estabelecidos nos Estados‑Membros, a fim de proporcionar um ponto de contacto específico para os empresários pedirem informações às autoridades competentes e procurarem orientações não vinculativas sobre a conformidade de produtos, serviços ou modelos empresariais inovadores que integrem tecnologias de IA. |
|
7. Um dos objetivos do programa de ambientes de testagem é permitir que as empresas cumpram o presente regulamento na fase de conceção do sistema de IA («conformidade desde a conceção»). Para o efeito, o programa deve facilitar o desenvolvimento de ferramentas informáticas e de infraestruturas para testar, comparar, avaliar e explicar as dimensões dos sistemas de IA relevantes para os ambientes de testagem, como a exatidão, a robustez e a cibersegurança, bem como a atenuação dos riscos para os direitos fundamentais, o ambiente e a sociedade em geral. |
|
8. O programa de ambientes de testagem deve ser implantado gradualmente, sendo as várias fases lançadas pela Comissão após o êxito da fase anterior. |
|
9. O programa de ambientes de testagem deve ter um procedimento integrado de avaliação de impacto para facilitar a análise da relação custo‑eficácia face aos objetivos acordados. Essa avaliação deve ser elaborada com o contributo dos Estados‑Membros com base nas suas experiências e ser incluída no relatório anual apresentado pela Comissão ao Comité Europeu para a Inteligência Artificial. |
PROCESSO DA COMISSÃO ENCARREGADA DE EMITIR PARECER
Título |
Regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e alteração de determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD) |
|||
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Parecer emitido por Data de comunicação em sessão |
ITRE 7.6.2021 |
|||
Comissões associadas ‑ data de comunicação em sessão |
16.12.2021 |
|||
Relator(a) de parecer Data de designação |
Eva Maydell 11.1.2022 |
|||
Artigo 58.º – Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
21.3.2022 |
|
|
|
Data de aprovação |
14.6.2022 |
|
|
|
Resultado da votação final |
+: –: 0: |
61 2 0 |
||
Deputados presentes no momento da votação final |
François‑Xavier Bellamy, Hildegard Bentele, Tom Berendsen, Vasile Blaga, Michael Bloss, Marc Botenga, Cristian‑Silviu Buşoi, Jerzy Buzek, Maria da Graça Carvalho, Ignazio Corrao, Ciarán Cuffe, Nicola Danti, Pilar del Castillo Vera, Martina Dlabajová, Christian Ehler, Niels Fuglsang, Lina Gálvez Muñoz, Jens Geier, Nicolás González Casares, Christophe Grudler, Henrike Hahn, Robert Hajšel, Ivars Ijabs, Romana Jerković, Seán Kelly, Łukasz Kohut, Zdzisław Krasnodębski, Andrius Kubilius, Thierry Mariani, Marisa Matias, Eva Maydell, Iskra Mihaylova, Dan Nica, Angelika Niebler, Niklas Nienaß, Mauri Pekkarinen, Mikuláš Peksa, Tsvetelina Penkova, Morten Petersen, Pina Picierno, Clara Ponsatí Obiols, Manuela Ripa, Robert Roos, Sara Skyttedal, Maria Spyraki, Patrizia Toia, Pernille Weiss, Carlos Zorrinho |
|||
Suplentes presentes no momento da votação final |
Franc Bogovič, Andrea Caroppo, Jakop G. Dalunde, Jens Gieseke, Klemen Grošelj, Elena Kountoura, Marian‑Jean Marinescu, Dace Melbārde, Dominique Riquet, Rob Rooken, Susana Solís Pérez |
|||
Suplentes (art. 209.º, n.º 7) presentes no momento da votação final |
Alessandra Basso, Bas Eickhout, Carlo Fidanza, Rob Rooken |
VOTAÇÃO NOMINAL FINAL
NA COMISSÃO ENCARREGADA DE EMITIR PARECER
61 |
+ |
ECR |
Carlo Fidanza, Zdzisław Krasnodębski, Dace Melbārde, Rob Rooken, Robert Roos |
ID |
Alessandra Basso, Thierry Mariani |
NI |
Clara Ponsatí Obiols |
PPE |
François‑Xavier Bellamy, Hildegard Bentele, Tom Berendsen, Vasile Blaga, Franc Bogovič, Cristian‑Silviu Buşoi, Jerzy Buzek, Andrea Caroppo, Maria da Graça Carvalho, Pilar del Castillo Vera, Christian Ehler, Jens Gieseke, Seán Kelly, Andrius Kubilius, Marian‑Jean Marinescu, Eva Maydell, Angelika Niebler, Sara Skyttedal, Maria Spyraki, Pernille Weiss |
RENEW |
Nicola Danti, Martina Dlabajová, Klemen Grošelj, Christophe Grudler, Ivars Ijabs, Iskra Mihaylova, Mauri Pekkarinen, Morten Petersen, Dominique Riquet, Susana Solís Pérez |
S&D |
Niels Fuglsang, Lina Gálvez Muñoz, Jens Geier, Nicolás González Casares, Robert Hajšel, Ivo Hristov, Romana Jerković, Łukasz Kohut, Dan Nica, Tsvetelina Penkova, Pina Picierno, Patrizia Toia, Carlos Zorrinho |
THE LEFT |
Elena Kountoura |
VERTS/ALE |
Michael Bloss, Ignazio Corrao, Ciarán Cuffe, Jakop G. Dalunde, Bas Eickhout, Henrike Hahn, Niklas Nienaß, Mikuláš Peksa, Manuela Ripa |
2 |
‑ |
THE LEFT |
Marc Botenga, Marisa Matias |
0 |
0 |
|
|
Legenda dos símbolos utilizados:
+ : votos a favor
‑ : votos contra
0 : abstenções
PARECER DA COMISSÃO DA CULTURA E DA EDUCAÇÃO (16.6.2022)
dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da união
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
Relator de parecer (*): Marcel Kolaja
(*) Comissão associada – Artigo 57.º do Regimento
JUSTIFICAÇÃO SUCINTA
Em 24 de abril de 2021, a Comissão Europeia publicou a sua proposta legislativa que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento IA), introduzindo um quadro regulamentar com o objetivo de assegurar que os sistemas de IA colocados no mercado da União Europeia são seguros na sua utilização e respeitam os direitos fundamentais e os valores da União Europeia.
Além disso, a proposta facilita o desenvolvimento de um mercado único para aplicações de IA legais, seguras e fiáveis, reforça a governação e a aplicação efetiva da legislação em vigor em matéria de direitos fundamentais e de requisitos de segurança aplicáveis aos sistemas de IA e garante a segurança jurídica para facilitar o investimento e a inovação em IA.
De um modo geral, o relator acolhe com satisfação a proposta da Comissão Europeia. Gostaria, no entanto, de sugerir algumas alterações, destinadas principalmente a alargar a lista de aplicações de IA de risco elevado nos domínios da educação, dos meios de comunicação social e da cultura constantes do anexo III, bem como a alterar determinadas disposições relacionadas com práticas proibidas nos termos do artigo 5.º.
Mais especificamente, o relator realiza uma reflexão sobre o aumento da implantação de tecnologias de IA nos estabelecimentos de ensino e formação. Por conseguinte, propõe que se considerem, entre as tecnologias de alto risco, também as tecnologias de IA utilizadas para monitorizar os estudantes durante os testes e as tecnologias usadas para determinar as áreas ou programas que eles devem estudar. No que diz respeito à comunicação social e à cultura, o relator sugere a listagem das tecnologias de IA de alto risco utilizadas para criar ou divulgar artigos noticiosos gerados por máquinas para utilização pelos meios de comunicação social e tecnologias de IA usadas para recomendar ou ordenar conteúdos audiovisuais.
O relator propõe, além disso, o alargamento da proibição de implantação de sistemas de classificação dos cidadãos para utilização por entidades públicas e privadas, dada a ameaça inerente de discriminação e exclusão de determinados grupos ou indivíduos.
Por último, e tendo em conta o perigo que a implantação de sistemas de identificação biométrica à distância em locais acessíveis ao público representa para os direitos fundamentais dos cidadãos, a liberdade de reunião e o trabalho dos jornalistas de investigação, ativistas e representantes políticos, o relator propõe proibir a implantação dessas tecnologias em locais acessíveis ao público, na sequência da resolução do Parlamento, de 6 de outubro de 2021, sobre a inteligência artificial no direito penal e a sua utilização pelas autoridades policiais e judiciárias em casos penais.
ALTERAÇÕES
A Comissão da Cultura e da Educação, insta a Comissão do Mercado Interno e da Proteção dos Consumidores e a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competentes quanto à matéria de fundo, a terem em conta as seguintes alterações:
Alteração 1
Proposta de regulamento
Considerando 1
|
|
Texto da Comissão |
Alteração |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme, assente em princípios éticos, para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União, minimizando eventuais riscos de impactos negativos e discriminatórios para as pessoas, sem criar obstáculos à inovação. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, da democracia, do Estado de direito e do ambiente, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
Alteração 2
Proposta de regulamento
Considerando 2
|
|
Texto da Comissão |
Alteração |
(2) Os sistemas de inteligência artificial (sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União e evitar divergências que prejudiquem a livre circulação dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.º do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.º do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados. |
(2) Os sistemas de inteligência artificial (sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados-Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja de confiança e segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União, com vista a alcançar uma IA de confiança, e evitar divergências que prejudiquem a livre circulação, a inovação, a implantação e a adoção dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.º do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.º do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados. |
Alteração 3
Proposta de regulamento
Considerando 3
|
|
Texto da Comissão |
Alteração |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais – o que, de resto, já é uma realidade –, caso o seu desenvolvimento seja levado a cabo com base em princípios éticos. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, nos meios de comunicação social, no desporto, na cultura, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
Alteração 4
Proposta de regulamento
Considerando 4
|
|
Texto da Comissão |
Alteração |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais. |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União, nomeadamente os direitos fundamentais dos trabalhadores, das pessoas que participam em processos de aprendizagem e das pessoas socialmente empenhadas, a privacidade, a proteção de dados e a livre escolha em matéria de informação, bem como direitos sociais ou ambientais. Esses prejuízos podem ser materiais ou imateriais. |
Alteração 5
Proposta de regulamento
Considerando 5
|
|
Texto da Comissão |
Alteração |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União, da democracia, do Estado de direito e do ambiente. Para alcançar esse objetivo, torna-se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, assente nos direitos fundamentais, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34, através de uma abordagem centrada no ser humano e respeitando a liberdade de expressão, a liberdade de discurso e a liberdade, pluralismo e diversidade dos meios de comunicação social. |
__________________ |
__________________ |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) – Conclusões [EUCO 13/20, 2020, p. 6]. |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) – Conclusões [EUCO 13/20, 2020, p. 6]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
Alteração 6
Proposta de regulamento
Considerando 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(5-A) A fim de ajudar a promover o desenvolvimento, a adoção e a compreensão da IA, a União precisa de redobrar os seus esforços em matéria de educação e formação, nomeadamente dando resposta à escassez de profissionais das TIC, de licenciaturas no domínio da IA e de trabalhadores com competências digitais, bem como à falta das competências digitais mais básicas entre uma parte considerável da população da União. |
Alteração 7
Proposta de regulamento
Considerando 5-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(5-B) A falta de investimento público e privado está a comprometer o desenvolvimento e a utilização de sistemas de IA em toda a União, principalmente em comparação com outras grandes economias industriais. Importa consagrar uma atenção especial e prever incentivos e apoio para promover a adoção da IA pelas PME, incluindo as pertencentes ao setor educativo e às indústrias e setores culturais e criativos; |
Alteração 8
Proposta de regulamento
Considerando 9
|
|
Texto da Comissão |
Alteração |
(9) Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública. Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas. Os espaços em linha também não são abrangidos, uma vez que não são espaços físicos. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, lojas e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço. |
(9) Para efeitos do presente regulamento, deve entender-se por «espaço acessível ao público» qualquer espaço físico ou virtual que seja acessível ao público, independentemente de o espaço em questão ser detido por uma entidade privada ou pública. Como tal, a definição não abrange locais de natureza privada ou que não são de acesso livre a terceiros, incluindo as autoridades policiais, a não ser que essas partes tenham sido especificamente convidadas ou autorizadas, tais como residências, clubes privados, escritórios, armazéns e fábricas e outros espaços privados. Deve aplicar-se o mesmo princípio aos espaços virtuais protegidos acessíveis ao público. Contudo, a mera possibilidade de aplicar determinadas condições para o acesso a um espaço particular, como bilhetes de admissão ou restrições de idade, não significa que o espaço não é acessível ao público na aceção do presente regulamento. Consequentemente, além dos espaços públicos, como as ruas, os parques, os recintos desportivos, as partes relevantes dos edifícios governamentais e a maioria das infraestruturas de transporte, espaços como cinemas, teatros, lojas, museus, bibliotecas, monumentos, espaços culturais, instituições culturais e centros comerciais também são, por norma, acessíveis ao público. Para determinar se um espaço é acessível ao público deve recorrer-se a uma análise casuística, tendo em conta as especificidades da situação em apreço. |
Alteração 9
Proposta de regulamento
Considerando 13
|
|
Texto da Comissão |
Alteração |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança, dos direitos fundamentais, da democracia, do Estado de direito, bem como do ambiente, deve ser criado um conjunto de princípios éticos e normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta»), a comunicação da Comissão, de 11 de dezembro de 2019, intitulada «Pacto Ecológico Europeu» e a Declaração Europeia, de 26 de janeiro de 2022, sobre os direitos e princípios digitais para a década digital, e não ser discriminatórias, bem como devem estar em consonância com os compromissos comerciais internacionais da União. |
Alteração 10
Proposta de regulamento
Considerando 14-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(14-B) Por «literacia em IA» entende-se as competências, o conhecimento e a compreensão que permitem, tanto aos cidadãos como aos operadores, no contexto das obrigações estabelecidas no presente regulamento, fazer uma implantação e utilização informadas dos sistemas de IA, bem como ganhar consciência das oportunidades e dos riscos da IA e, assim, promover o seu controlo democrático. A literacia em IA não se deve limitar à aprendizagem de ferramentas e tecnologias, devendo também visar equipar os cidadãos e os operadores, no contexto das obrigações estabelecidas no presente regulamento, com as capacidades de pensamento crítico necessárias para identificar utilizações prejudiciais ou manipuladoras, bem como para melhorar a sua agência e a sua capacidade de cumprir e beneficiar plenamente de uma IA de confiança. Por conseguinte, é necessário que a Comissão, os Estados-Membros e os operadores de sistemas de IA, em cooperação com todas as partes interessadas pertinentes, promovam o desenvolvimento da literacia em IA em todos os quadrantes da sociedade, para os cidadãos de todas as faixas etárias, incluindo mulheres e raparigas, e que a sua evolução seja acompanhada de perto. |
Alteração 11
Proposta de regulamento
Considerando 15
|
|
Texto da Comissão |
Alteração |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças. |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção dos trabalhadores, à proteção de dados pessoais e à privacidade, à igualdade de género, e os direitos das crianças. |
Alteração 12Proposta de regulamento
Considerando 27
|
|
Texto da Comissão |
Alteração |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar-se aos sistemas que têm um impacto prejudicial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União, bem como na sociedade e no ambiente, e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
Alteração 13
Proposta de regulamento
Considerando 28
|
|
Texto da Comissão |
Alteração |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas. |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, o direito à educação, a defesa dos consumidores e os direitos dos trabalhadores. Merecem especial atenção a igualdade de género, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, o direito a uma boa administração, a proteção dos direitos de propriedade intelectual e a garantia da diversidade cultural. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar os danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas ou ao ambiente, devido à extração e consumo de recursos naturais, aos resíduos e à pegada de carbono desses sistemas de IA. |
Alteração 14
Proposta de regulamento
Considerando 33
|
|
Texto da Comissão |
Alteração |
(33) As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica à distância de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente importante no que diz respeito à idade, à etnia, ao sexo ou a deficiências das pessoas. Como tal, os sistemas de identificação biométrica à distância «em tempo real» e «em diferido» devem ser classificados como de risco elevado. Face aos riscos que estes dois tipos de sistemas de identificação biométrica à distância representam, ambos devem estar sujeitos a requisitos específicos relativos às capacidades de registo e à supervisão humana. |
(33) As imprecisões técnicas dos sistemas de IA concebidos para a identificação biométrica de pessoas singulares podem conduzir a resultados enviesados e ter efeitos discriminatórios. Esta questão é particularmente importante no que diz respeito à idade, à etnia, ao sexo ou a deficiências das pessoas. Como tal, os sistemas de identificação biométrica à distância «em tempo real» e «em diferido» devem ser classificados como de risco elevado. Face aos riscos que estes dois tipos de sistemas de identificação biométrica representam, ambos devem estar sujeitos a requisitos específicos relativos às capacidades de registo e à supervisão humana. Os sistemas de identificação biométrica não remota destinados a ser utilizados em espaços, locais de trabalho e instituições de ensino e formação acessíveis ao público podem representar igualmente um risco elevado. O risco elevado inerente aos sistemas de identificação biométrica não remota destinados a ser utilizados em espaços, locais de trabalho e instituições de ensino e formação acessíveis ao público deve ser determinado numa base casuística. |
Alteração 15
Proposta de regulamento
Considerando 34-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(34-A) A implantação de sistemas de IA no ensino é fundamental para ajudar a modernizar os sistemas de ensino, para reforçar a qualidade do ensino, tanto em linha como fora dela, e para impulsionar a educação digital, tornando-a acessível a um público mais vasto. Embora não possa substituir a aprendizagem presencial, a educação digital é cada vez mais necessária para promover o crescimento social e económico, fomentar a inclusividade e reforçar o nível de habilitações dos indivíduos e o seu acesso à educação. |
Alteração 16
Proposta de regulamento
Considerando 35
|
|
Texto da Comissão |
Alteração |
(35) Os sistemas de IA utilizados no domínio da educação ou formação profissional, designadamente para determinar o acesso ou a afetação de pessoas a instituições de ensino e de formação profissional ou para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma, devem ser considerados de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos e utilizados, estes sistemas podem violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação. |
(35) Os sistemas de IA utilizados no domínio da educação ou formação, designadamente para determinar o acesso ou a afetação de pessoas a instituições de ensino e de formação, para avaliar testes que as pessoas realizam no âmbito da sua educação ou como pré-condição para a mesma, ou para determinar as áreas de estudo que um estudante deve seguir, devem ser considerados de risco elevado, uma vez que determinam o percurso académico e profissional das pessoas e, como tal, afetam a capacidade destas para garantir a subsistência. Se indevidamente concebidos, desenvolvidos e utilizados, estes sistemas podem violar o direito à educação e à formação, bem como o direito a não ser alvo de discriminação e de perpetuação de padrões históricos de discriminação, por exemplo contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o comportamento e as emoções dos alunos durante os testes nas instituições de ensino e formação devem ser considerados de alto risco, uma vez que também interferem com os direitos dos estudantes à privacidade e à proteção de dados. A utilização de IA para verificar a existência de plágio em provas de avaliação, como exames escritos, não deve ser considerada de risco elevado. |
Alteração 17
Proposta de regulamento
Considerando 36
|
|
Texto da Comissão |
Alteração |
(36) Os sistemas de IA utilizados nos domínios do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões sobre promoções e despedimentos, de repartição de tarefas e de controlo ou avaliação de pessoas no âmbito de relações contratuais de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira e na subsistência dessas pessoas. O conceito de «relações contratuais relacionadas com o trabalho» deve abranger os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Em princípio, essas pessoas não devem ser consideradas «utilizadores» na aceção do presente regulamento. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações contratuais relacionadas com o trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ter ainda um impacto nos seus direitos à proteção de dados pessoais e à privacidade. |
(36) Os sistemas de IA utilizados nos domínios do emprego, da promoção do emprego, da gestão de trabalhadores e do acesso ao emprego por conta própria, nomeadamente para efeitos de recrutamento e seleção, de tomada de decisões sobre promoções e despedimentos, de repartição de tarefas, de controlo do cumprimento das normas no local de trabalho e de controlo ou avaliação de pessoas no âmbito de relações de trabalho também devem ser classificados como de risco elevado, uma vez que podem ter um impacto significativo nas perspetivas de carreira e na subsistência dessas pessoas, bem como nas regras em matéria de saúde, segurança e proteção aplicáveis à sua atividade profissional e locais de trabalho. O conceito de «relações de trabalho» deve abranger os funcionários e as pessoas que prestam serviços por intermédio de plataformas, conforme mencionado no programa de trabalho da Comissão para 2021. Em princípio, essas pessoas não devem ser consideradas «utilizadores» na aceção do presente regulamento. Ao longo do processo de recrutamento e na avaliação, promoção ou retenção de pessoas em relações de trabalho, esses sistemas podem perpetuar padrões históricos de discriminação, por exemplo, contra as mulheres, certos grupos etários, pessoas com deficiência ou pessoas de uma determinada origem racial ou étnica ou orientação sexual. Os sistemas de IA utilizados para controlar o desempenho e o comportamento destas pessoas podem ter ainda um impacto nos seus direitos à proteção de dados pessoais e à privacidade. A este respeito, devem aplicar-se requisitos específicos em matéria de transparência, informação e supervisão humana. Os sindicatos e os representantes dos trabalhadores devem ser informados e dispor de acesso a toda a documentação pertinente elaborada ao abrigo do presente regulamento para sistemas de IA de risco elevado implantados ou utilizados no âmbito da sua atividade profissional ou no seu local de trabalho. |
Alteração 18
Proposta de regulamento
Considerando 70
|
|
Texto da Comissão |
Alteração |
(70) Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser notificadas de que estão a interagir com um sistema de IA, a não ser que tal seja óbvio tendo em conta as circunstâncias e o contexto de utilização. Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem ser fornecidas em formatos acessíveis a pessoas com deficiência. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
(70) Determinados sistemas de IA utilizados para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser notificadas de que estão a interagir com um sistema de IA, a não ser que tal seja óbvio tendo em conta as circunstâncias e o contexto de utilização ou se for evidente que os conteúdos são utilizados no âmbito de um trabalho criativo, artístico ou de ficção cinematográfica. Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem incluir uma declaração de exoneração de responsabilidade e devem ser fornecidas em formatos acessíveis a crianças, idosos, migrantes e pessoas com deficiência ou outras vulnerabilidades. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo, textos ou guiões que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar de forma clara que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
Alteração 19
Proposta de regulamento
Considerando 73
|
|
Texto da Comissão |
Alteração |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados-Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização, literacia em matéria de IA e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
Alteração 20
Proposta de regulamento
Considerando 74
|
|
Texto da Comissão |
Alteração |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados-Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. É necessário que a Comissão crie também uma rede pan-europeia de universidades e investigadores centrada na IA, por forma a aprofundar o estudo e a investigação sobre o impacto da IA, e que atualize o Plano de Ação para a Educação Digital estabelecido na comunicação da Comissão, de 30 de setembro de 2020, intitulada «Plano de Ação para a Educação Digital 2021-2027 – Reconfigurar a educação e a formação para a era digital», por forma a integrar a IA e a inovação no domínio da robótica na educação. |
Alteração 21
Proposta de regulamento
Considerando 76
|
|
Texto da Comissão |
Alteração |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento especializado e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial e para dar resposta aos desafios decorrentes da célere evolução das tecnologias de IA. |
Alteração 22
Proposta de regulamento
Considerando 83
|
|
Texto da Comissão |
Alteração |
(83) Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções. |
(83) Para assegurar uma cooperação de confiança e construtiva entre as autoridades competentes a nível da União e nacional, todas as partes envolvidas na aplicação do presente regulamento devem respeitar a confidencialidade das informações e dos dados obtidos no exercício das suas funções. Afigura-se adequada a criação de um novo conjunto de orientações e normas comuns europeias, de modo a proteger a privacidade e a assegurar, ao mesmo tempo, a utilização eficaz dos dados disponíveis. |
Alteração 23
Proposta de regulamento
Considerando 85
|
|
Texto da Comissão |
Alteração |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58. Essas consultas devem envolver especialistas qualificados de diferentes quadrantes da sociedade, incluindo do setor privado, investigadores e cientistas, representantes do setor da educação, dos meios de comunicação social e da cultura, sindicatos, organizações de pais, de defesa dos consumidores e de proteção de dados, que disponham de competências e conhecimentos relevantes para a tarefa. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
__________________ |
__________________ |
58 JO L 123 de 12.5.2016, p. 1. |
58 JO L 123 de 12.5.2016, p. 1. |
Alteração 24
Proposta de regulamento
Considerando 86-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(86-A) Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos necessários para realizar a avaliação dos sistemas de IA de risco elevado, a delegação de poderes e as competências de execução da Comissão devem ser exercidas com a maior flexibilidade possível. A Comissão deve rever regularmente o anexo III sem demora injustificada, e pelo menos de seis em seis meses, consultando simultaneamente as partes interessadas pertinentes, incluindo peritos em ética, antropólogos, sociólogos, especialistas em saúde mental e quaisquer outros cientistas e investigadores relevantes, bem como associações de pais. |
Alteração 25
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Regras de transparência harmonizadas para sistemas de IA concebidos para interagir com pessoas singulares, sistemas de reconhecimento de emoções e sistemas de categorização biométrica, bem como para sistemas de IA usados para gerar ou manipular conteúdos de imagem, áudio ou vídeo; |
c) Regras de transparência harmonizadas para sistemas de IA; |
Alteração 26
Proposta de regulamento
Artigo 2 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. O presente regulamento não afeta nem prejudica a investigação académica ou o desenvolvimento de sistemas de IA e seus resultados para efeitos de investigação académica. |
Alteração 27
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 4
|
|
Texto da Comissão |
Alteração |
4) «Utilizador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional; |
(4) «Utilizador», uma pessoa singular ou coletiva, autoridade pública, instituição de ensino e de formação, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional; |
Alteração 28
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 35
|
|
Texto da Comissão |
Alteração |
35) «Sistema de categorização biométrica», um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos; |
(35) «Sistema de categorização biométrica», um sistema de IA que utiliza dados biométricos, ou outros dados físicos, fisiológicos ou comportamentais, para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos; |
Alteração 29
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 39
|
|
Texto da Comissão |
Alteração |
39) «Espaço acessível ao público», qualquer espaço físico aberto ao público, independentemente da eventual aplicação de condições de acesso específicas; |
(39) «Espaço acessível ao público», qualquer espaço aberto ao público, independentemente da eventual aplicação de condições de acesso específicas; |
Alteração 30
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A morte de uma pessoa ou danos graves para a saúde de uma pessoa, bens, ou o ambiente, |
a) A morte de uma pessoa ou danos graves para os direitos fundamentais e a saúde de uma pessoa, bens ou o ambiente, a democracia ou o Estado de direito democrático, |
Alteração 31
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-A (novo)
|
|
Texto da Comissão |
Alteração |
|
44-A) «Instituições de ensino e formação», prestadores de serviços de ensino e formação, independentemente da idade das pessoas que recebem educação e formação, incluindo instituições pré-escolares, estruturas de acolhimento de crianças, escolas primárias, escolas secundárias, prestadores de ensino superior, ensino e formação profissionais e qualquer tipo de prestadores de serviços de aprendizagem ao longo da vida; |
Alteração 32
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-B (novo)
|
|
Texto da Comissão |
Alteração |
|
44-B) «Instituições culturais», instituições como bibliotecas, museus, teatros, salas de concertos, centros de exposições, conjuntos arquitetónicos e espaços culturais multiusos, bem como as respetivas secções virtuais, que organizam educação cultural, intercâmbios democráticos e investigação, e proporcionam formas e meios para interagir com o património cultural; |
Alteração 33
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-C (novo)
|
|
Texto da Comissão |
Alteração |
|
44-C) «Falsificação profunda», conteúdos manipulados ou artificiais, em suporte áudio, visual ou audiovisual, textos ou guiões de que constam pessoas pretensamente autênticas e verdadeiras; |
Alteração 34
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-D (novo)
|
|
Texto da Comissão |
Alteração |
|
44-D) «Literacia em matéria de IA», competências, conhecimentos e compreensão no que se refere aos sistemas de IA. |
Alteração 35
Proposta de regulamento
Artigo 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-A |
|
IA de confiança |
|
1. Todos os sistemas de IA da União devem ser desenvolvidos, implantados e utilizados no pleno respeito pela Carta dos Direitos Fundamentais da União Europeia (a «Carta»). |
|
2. Com vista a promover uma IA de confiança na União, e sem prejuízo dos requisitos estabelecidos do título III no que se refere aos sistemas de IA de risco elevado, todos os sistemas de IA devem ser desenvolvidos, implantados e utilizados: |
|
a) De modo lícito, leal e transparente («princípio da licitude, lealdade e transparência»); |
|
b) De um modo que garanta que as pessoas singulares tenham sempre a possibilidade de tomar decisões informadas no que toca a esses sistemas e que esses sistemas não se sobreponham à autonomia humana nem a comprometam («princípio da iniciativa e controlo por humanos»); |
|
c) De um modo que garanta um desempenho seguro, exato e fiável de tais sistemas, com a integração de salvaguardas para evitar qualquer tipo de danos individuais ou coletivos («princípio da segurança, exatidão, fiabilidade e robustez»); |
|
d) De um modo que garanta a privacidade e a proteção dos dados («princípio da privacidade»); |
|
e) De um modo que atribua prioridade à integridade e à qualidade dos dados, incluindo o acesso aos mesmos («princípio da governação dos dados»); |
|
f) De um modo rastreável, auditável e explicável, que assegure a responsabilidade e a responsabilização pelos respetivos resultados e proporcione vias de recurso («princípio da rastreabilidade, auditabilidade, explicabilidade e responsabilização»); |
|
g) De um modo que não discrimine pessoas ou grupos de pessoas com base em enviesamentos injustos, e que preveja, nesse sentido, a participação e o contributo das partes interessadas pertinentes («princípio da não discriminação e diversidade»); |
|
h) De um modo ambientalmente sustentável que minimize a respetiva pegada ambiental, incluindo no que toca à extração e consumo de recursos naturais («princípio da sustentabilidade ambiental»); |
|
i) De um modo socialmente responsável, que minimize o respetivo impacto social, em especial no que diz respeito às desigualdades sociais e de género e aos processos democráticos («princípio da responsabilidade social»); |
Alteração 36
Proposta de regulamento
Artigo 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-B |
|
Literacia em matéria de IA |
|
1. Na execução do presente regulamento, a União e os Estados-Membros promovem medidas e ferramentas para o desenvolvimento de um nível suficiente de literacia em IA em todos os setores e grupos de operadores em questão, nomeadamente através da educação e formação, de programas de qualificação e requalificação e garantindo, ao mesmo tempo, um equilíbrio adequado em matéria de género e de idade, com vista a permitir um controlo democrático dos sistemas de IA. |
|
2. Os fornecedores e utilizadores de sistemas de IA promovem ferramentas e adotam medidas que garantam que o seu pessoal e quaisquer outras pessoas envolvidas, em seu nome, no funcionamento e utilização de sistemas de IA dispõem de um nível suficiente de literacia em matéria de IA, tendo em conta os seus conhecimentos técnicos, experiência, educação e formação e o ambiente em que tais sistemas serão utilizados, bem como as pessoas ou grupos de pessoas visadas por essa utilização. |
|
3. Essas ferramentas e medidas de literacia devem incluir, em especial, o ensino e a aprendizagem de noções e competências básicas sobre os sistemas de IA e o seu funcionamento, incluindo os diferentes tipos de produtos e utilizações, os respetivos riscos e benefícios, a gravidade dos danos que podem causar e a probabilidade dessa ocorrência. |
|
4. O nível de literacia em matéria de IA é considerado suficiente caso contribua para que os operadores sejam capazes de respeitar plenamente e tirar partido de sistemas de IA fiáveis, e, em especial, de respeitar os requisitos previstos no presente regulamento. |
Alteração 37
Proposta de regulamento
Artigo 6 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Além dos sistemas de IA de risco elevado referidos no n.º 1, os sistemas de IA referidos no anexo III são também considerados de risco elevado. |
2. Além dos sistemas de IA de risco elevado referidos no n.º 1, os sistemas de IA referidos no anexo III são também considerados de risco elevado, na medida em que podem causar danos para a saúde, a segurança, o ambiente, os direitos fundamentais ou a democracia e o Estado de direito. |
Alteração 38
Proposta de regulamento
Artigo 7 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III, pontos 1 a 8; |
a) Os sistemas de IA destinam-se a ser utilizados em qualquer um dos domínios enumerados no anexo III; |
Alteração 39
Proposta de regulamento
Artigo 7 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais, na democracia e no Estado de direito ou no ambiente que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
Alteração 40
Proposta de regulamento
Artigo 7 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais, na democracia e no Estado de direito ou no ambiente equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
Alteração 41
Proposta de regulamento
Artigo 7 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. A Comissão procede anualmente à avaliação a que se refere o n.º 2, nas condições de consulta estabelecidas no artigo 73.º. |
Alteração 42
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 2 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Disponibilização de um nível suficiente de literacia em matéria de IA; |
Alteração 43
Proposta de regulamento
Artigo 9 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, deve tomar-se especificamente em conta se o sistema de IA de risco elevado é suscetível de ser acedido por crianças ou de ter impacto nas mesmas. |
8. Ao implantar o sistema de gestão de riscos descrito nos n.os 1 a 7, deve tomar-se especificamente em conta se o sistema de IA de risco elevado é suscetível de ser acedido por crianças, idosos, migrantes ou outros grupos vulneráveis ou de ter impacto nos mesmos. |
Alteração 44
Proposta de regulamento
Artigo 10 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Ao exame para detetar eventuais enviesamentos; |
f) Ao exame para detetar eventuais enviesamentos, e, em especial, desvios passíveis de afetar a saúde e a segurança das pessoas ou passíveis de conduzir a discriminação; |
Alteração 45
Proposta de regulamento
Artigo 10 – n.º 2 – alínea g-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g-A) À finalidade e ao ambiente em que o sistema será utilizado; |
Alteração 46
Proposta de regulamento
Artigo 13 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente. Deve ser garantido um tipo e um grau adequado de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos fornecedores e utilizadores e a outras partes interessadas pertinentes interpretar facilmente o funcionamento e o resultado do sistema e utilizá-lo corretamente, com base em decisões informadas, para cumprir as obrigações previstas no capítulo 3 do presente título. |
Alteração 47
Proposta de regulamento
Artigo 13 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores garantem um nível suficiente de literacia em matéria de IA, em conformidade com o artigo 4.º-B. |
Alteração 48
Proposta de regulamento
Artigo 14 – n.º 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores garantem um nível suficiente de literacia em matéria de IA, em conformidade com o artigo 4.º-B. |
Alteração 49
Proposta de regulamento
Artigo 29 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. A fim de cumprir as obrigações previstas no presente artigo, bem como conseguir justificar o seu possível incumprimento, os utilizadores de sistemas de IA de risco elevado garantem um nível suficiente de literacia em IA, em conformidade com o artigo 4.º-B. |
Alteração 50
Proposta de regulamento
Artigo 41 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável. |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões das partes interessadas pertinentes, incluindo dos representantes do setor, das PME e de outros organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável. |
Alteração 51
Proposta de regulamento
Artigo 52 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
1. Os fornecedores devem assegurar que os sistemas de IA usados para interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
Alteração 52
Proposta de regulamento
Artigo 52 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar sobre o funcionamento do sistema as pessoas a ele expostas. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar, de forma oportuna, clara e inteligível, sobre o funcionamento do sistema as pessoas a ele expostas. Essas informações devem também incluir, se for caso disso, os direitos e processos que permitem que as pessoas singulares se oponham a que tais sistemas de IA lhes sejam aplicados. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
Alteração 53
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os utilizadores de um sistema de IA que gera ou manipula conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, objetos, locais ou outras entidades ou acontecimentos reais e que, falsamente, pareçam ser autênticos e verdadeiros a uma pessoa («falsificação profunda») devem divulgar que o conteúdo foi gerado ou manipulado artificialmente. |
Os utilizadores de um sistema de IA que gera ou manipula conteúdos de imagem, áudio ou vídeo, textos ou guiões que sejam consideravelmente semelhantes a pessoas, objetos, locais, textos, guiões ou outras entidades ou acontecimentos reais e que, falsamente, pareçam ser autênticos e verdadeiros a uma pessoa («falsificação profunda») devem divulgar, de forma adequadamente clara, reiterada, atempada e visível, que o conteúdo foi gerado ou manipulado artificialmente. |
Alteração 54
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Contudo, o primeiro parágrafo não se aplica se a utilização for legalmente autorizada para detetar, prevenir, investigar e reprimir infrações penais ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. |
Contudo, o primeiro parágrafo não se aplica se a utilização se inserir, de forma evidente, no âmbito de um trabalho criativo, artístico, de ficção cinematográfica ou semelhante ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. |
Alteração 55
Proposta de regulamento
Artigo 52 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Os fornecedores e utilizadores de sistemas de IA que recomendam, divulgam e ordenam notícias ou conteúdos criativos e culturais comunicam, de forma adequada, facilmente acessível, clara e visível, os principais parâmetros utilizados para moderar os conteúdos e as sugestões personalizadas. Essas informações incluem uma declaração de exoneração de responsabilidade. |
Alteração 56
Proposta de regulamento
Artigo 52 – n.º 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. As informações a que se refere o presente artigo são fornecidas às pessoas singulares de forma atempada, clara e visível, o mais tardar aquando da primeira interação ou exposição. Tais informações são tornadas acessíveis sempre que a pessoa singular exposta seja uma pessoa com deficiência, uma criança ou uma pessoa pertencente a um grupo vulnerável. São complementadas, sempre que possível, por procedimentos de intervenção ou sinalização para a pessoa singular exposta, tendo em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações comuns pertinentes. |
Alteração 57
Proposta de regulamento
Artigo 56 – n.º 2 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Promover a adoção da IA no seio da União, em especial entre as PME; |
Alteração 58
Proposta de regulamento
Artigo 57 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Devem ser convidadas para as reuniões outras autoridades nacionais ou internacionais, bem como partes interessadas pertinentes, incluindo do setor privado, sempre que as questões debatidas sejam pertinentes para as mesmas. |
Alteração 59
Proposta de regulamento
Artigo 57 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
4. O Comité deve, se for caso disso, convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União, incluindo o Grupo de Peritos de Alto Nível em Inteligência Artificial. |
Alteração 60
Proposta de regulamento
Artigo 69 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas, incluindo, em especial, os sindicatos e as organizações de consumidores. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
Alteração 61
Proposta de regulamento
Artigo 69 – n.º 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores garantem um nível suficiente de literacia em matéria de IA, em conformidade com o artigo 4.º-B. |
Alteração 62
Proposta de regulamento
Artigo 71 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções, incluindo coimas, aplicáveis em caso de infração ao presente regulamento e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente. As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter especialmente em conta os interesses dos fornecedores de pequena dimensão e das empresas em fase de arranque e a respetiva viabilidade económica. |
1. Em conformidade com os termos e as condições previstas no presente regulamento, os Estados-Membros devem estabelecer o regime de sanções, incluindo coimas, aplicáveis em caso de infração ao presente regulamento e devem tomar todas as medidas necessárias para garantir que o mesmo é aplicado correta e eficazmente. As sanções previstas devem ser efetivas, proporcionadas e dissuasivas. Devem ter especialmente em conta os interesses e a posição de mercado dos fornecedores de pequena dimensão e das empresas em fase de arranque e a respetiva viabilidade económica. |
Alteração 63
Proposta de regulamento
Artigo 73 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. Antes de adotar um ato delegado, a Comissão consulta as instituições e partes interessadas pertinentes, de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor. |
Alteração 64
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade. |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de telecomunicações e de abastecimento de água, gás, aquecimento e eletricidade. |
Alteração 65
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. Educação e formação profissional: |
3. Educação e formação: |
Alteração 66
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação profissional; |
a) Sistemas de IA concebidos para serem utilizados para fins de determinação do acesso ou da afetação de pessoas singulares a instituições de ensino e de formação; |
Alteração 67
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação profissional e de avaliação de participantes nos testes habitualmente exigidos para admissão em instituições de ensino. |
b) Sistemas de IA concebidos para serem utilizados para fins de avaliação de estudantes em instituições de ensino ou de formação e de avaliação de participantes nos testes habitualmente exigidos para admissão em instituições de ensino. |
Alteração 68
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea b-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-A) Sistemas de IA concebidos para serem utilizados para fins de determinação do programa de estudo ou de áreas de estudo que os estudantes devem seguir em instituições de ensino e de formação; |
Alteração 69
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 3 – alínea b-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b-B) Sistemas de IA concebidos para serem utilizados para fins de monitorização e deteção de comportamentos proibidos de estudantes durante testes em instituições de ensino e de formação; |
Alteração 70
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. Emprego, gestão de trabalhadores e acesso ao emprego por conta própria: |
4. Emprego e promoção do emprego, gestão de trabalhadores e acesso ao emprego por conta própria: |
Alteração 71
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 4 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Sistemas de IA concebidos para serem utilizados na tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, na repartição de tarefas e no controlo e avaliação do desempenho e do comportamento de pessoas envolvidas nas referidas relações. |
b) Sistemas de IA concebidos para serem utilizados na tomada de decisões sobre promoções, cessações de relações de trabalho ou início de tais relações, na repartição de tarefas, no controlo do cumprimento das regras laborais e no controlo e avaliação do desempenho e do comportamento de pessoas envolvidas nas referidas relações. |
ANEXO: LISTA DAS ENTIDADES OU PESSOAS DE QUEM O RELATOR RECEBEU CONTRIBUTOS
A lista que se segue é elaborada a título meramente voluntário sob a responsabilidade exclusiva do relator. O relator recebeu contribuições das seguintes entidades ou pessoas durante a elaboração do parecer, até à aprovação do mesmo em comissão:
Entidade e/ou pessoa |
AccessNow |
Baptiste Caramiaux, investigador no CNRS, Universidade Sorbonne de Paris |
GEUC |
Defenddigitalme |
EDRi (Direitos Digitais Europeus) |
Fórum Europeu das Pessoas com Deficiência |
Huawei |
Federação Internacional de Associações e Instituições de Bibliotecários |
Joanna Bryson, Professora de Ética e Tecnologia, Hertie School |
Liber Europe |
Maldita.es |
Martin Senftlebe, Professor de Direito de Propriedade Intelectual, Universidade de Amsterdão |
Meaning Processing Ltd. |
Saidot Ltd. |
Scio.cz |
PROCESSO DA COMISSÃO ENCARREGADA DE EMITIR PARECER
Título |
que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) |
|||
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Parecer emitido por Data de comunicação em sessão |
CULT 7.6.2021 |
|||
Comissões associadas – Data de comunicação em sessão |
16.12.2021 |
|||
Relator de parecer Data de designação |
Marcel Kolaja 13.7.2021 |
|||
Artigo 58.º - Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
15.3.2022 |
|
|
|
Data de aprovação |
15.6.2022 |
|
|
|
Resultado da votação final |
+: –: 0: |
24 0 0 |
||
Deputados presentes no momento da votação final |
Asim Ademov, Ilana Cicurel, Tomasz Frankowski, Romeo Franz, Catherine Griset, Sylvie Guillaume, Hannes Heide, Petra Kammerevert, Niyazi Kizilyürek, Predrag Fred Matić, Dace Melbārde, Peter Pollák, Diana Riba i Giner, Andrey Slabakov, Massimiliano Smeriglio, Michaela Šojdrová, Sabine Verheyen, Theodoros Zagorakis, Milan Zver |
|||
Suplentes presentes no momento da votação final |
Loucas Fourlas, Ibán García Del Blanco, Marcel Kolaja, Domènec Ruiz Devesa |
|||
Suplentes (art. 209.º, n.º 7) presentes no momento da votação final |
Karen Melchior |
VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
24 |
+ |
ECR |
Dace Melbārde, Andrey Slabakov |
ID |
Catherine Griset |
PPE |
Asim Ademov, Loucas Fourlas, Tomasz Frankowski, Peter Pollák, Michaela Šojdrová, Sabine Verheyen, Theodoros Zagorakis, Milan Zver |
RENEW |
Ilana Cicurel, Karen Melchior |
S&D |
Ibán García Del Blanco, Sylvie Guillaume, Hannes Heide, Petra Kammerevert, Predrag Fred Matić, Domènec Ruiz Devesa, Massimiliano Smeriglio |
THE LEFT |
Niyazi Kizilyürek |
VERTS/ALE |
Romeo Franz, Marcel Kolaja, Diana Riba i Giner |
0 |
- |
|
|
0 |
0 |
|
|
Legenda dos símbolos utilizados:
+ : votos a favor
- : votos contra
0 : abstenções
PARECER DA COMISSÃO DOS ASSUNTOS JURÍDICOS (12.9.2022)
dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (regulamento inteligência artificial) e altera determinados atos legislativos da União
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
Relator de parecer: Axel Voss
ALTERAÇÕES
A Comissão dos Assuntos Jurídicos insta a Comissão do Mercado Interno e da Proteção dos Consumidores e a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competentes quanto à matéria de fundo, a ter em conta as seguintes alterações:
Alteração 1
Proposta de regulamento
Considerando 1
|
|
Texto da Comissão |
Alteração |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os princípios e os valores democráticos da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados-Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
Alteração 2
Proposta de regulamento
Considerando 3
|
|
Texto da Comissão |
Alteração |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais, se desenvolvida de acordo com princípios gerais pertinentes em conformidade e em conformidade com a Carta dos Direitos Fundamentais da UE e os valores em que a União se alicerça. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
Alteração 3
Proposta de regulamento
Considerando 4
|
|
Texto da Comissão |
Alteração |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais. |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais e podem afetar uma pessoa, um grupo de pessoas ou a sociedade em geral. |
Alteração 4
Proposta de regulamento
Considerando 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(6-A) Com base nos sete requisitos fundamentais definidos pelo grupo de peritos de alto nível sobre Inteligência Artificial, é importante assinalar que os sistemas de IA devem respeitar os princípios gerais que estabelecem um quadro de alto nível que promova uma abordagem coerente centrada no ser humano em prol de uma IA ética e fiável, em consonância com a Carta dos Direitos Fundamentais da União Europeia e os valores em que se funda a União, incluindo a proteção dos direitos fundamentais, a iniciativa e o controlo por humanos, a solidez técnica e a segurança, a privacidade e a governação dos dados, a transparência, a não discriminação e a equidade, bem como o bem-estar social e ambiental. |
Alteração 5
Proposta de regulamento
Considerando 13
|
|
Texto da Comissão |
Alteração |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança, dos direitos fundamentais e do ambiente, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta»), o Pacto Ecológico Europeu (doravante designado por «Pacto Ecológico») e a Declaração Conjunta sobre os Direitos Digitais da União (a seguir designada por «Declaração») e não discriminatórias, bem como estar em consonância com os compromissos internacionais da União. |
Alteração 6
Proposta de regulamento
Considerando 14-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(14-A) Para que o presente regulamento seja eficaz, é essencial afrontar a problemática do fosso digital e, por conseguinte, o presente regulamento deve ser acompanhado de uma política de educação, formação e sensibilização para estas tecnologias que garanta um nível suficiente de literacia no domínio da IA. |
Alteração 7
Proposta de regulamento
Considerando 14-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(14-B) «Literacia no domínio da IA», as competências, os conhecimentos e a compreensão que permitem que os fornecedores, os utilizadores e as pessoas afetadas, tendo em conta os respetivos direitos e obrigações no contexto do presente regulamento, implantem os sistemas de IA com conhecimento de causa, e tomem consciência das oportunidades e dos riscos inerentes à IA, bem como dos eventuais danos que a IA pode causar, promovendo, assim, o seu controlo democrático. A literacia em IA não deve circunscrever-se à aprendizagem sobre ferramentas e tecnologias, mas deve também ter por objetivo dotar os fornecedores e utilizadores das noções e competências necessárias para assegurar o cumprimento e a aplicação do presente regulamento. Por conseguinte, é necessário que a Comissão e os Estados‑Membros, bem como os fornecedores e os utilizadores de sistemas de IA, em cooperação com todas as partes interessadas pertinentes, promovam o desenvolvimento de um nível suficiente de literacia em IA, em todos os quadrantes da sociedade, para os cidadãos de todas as faixas etárias, incluindo mulheres e raparigas, e que os progressos na matéria sejam acompanhados de perto. |
Alteração 8
Proposta de regulamento
Considerando 15
|
|
Texto da Comissão |
Alteração |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, e os direitos das crianças. |
(15) Além das inúmeras utilizações benéficas da inteligência artificial, essa tecnologia pode ser utilizada indevidamente e conceder instrumentos novos e poderosos para práticas manipuladoras, exploratórias e de controlo social. Essas práticas são particularmente prejudiciais e devem ser proibidas, pois desrespeitam valores da União, como a dignidade do ser humano, a liberdade, a igualdade, a democracia e o Estado de direito, bem como direitos fundamentais da União, incluindo o direito à não discriminação, à proteção de dados pessoais e à privacidade, a igualdade de género e os direitos das crianças. |
Alteração 9
Proposta de regulamento
Considerando 16
|
|
Texto da Comissão |
Alteração |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica. |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem-máquina não supervisionadas que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica. Se necessário e em conformidade com o presente regulamento, os Estados‑Membros devem introduzir novas flexibilidades a fim de promover a investigação e, através desta, as capacidades de inovação europeias. |
Alteração 10
Proposta de regulamento
Considerando 28
|
|
Texto da Comissão |
Alteração |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas. |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a educação, a defesa dos consumidores, a igualdade de género, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, o direito a uma boa administração, o direito à proteção da propriedade intelectual e a diversidade cultural. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem-estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas. |
Alteração 11
Proposta de regulamento
Considerando 47-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(47-A) Estes requisitos de transparência e explicabilidade das decisões tomadas pela IA também devem ajudar a contrariar os efeitos dissuasores da assimetria digital e dos chamados «padrões obscuros» dirigidos a pessoas individuais e ao seu consentimento informado. |
Alteração 12
Proposta de regulamento
Considerando 48-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(48-A) A supervisão humana visa servir objetivos centrados no ser humano. As pessoas incumbidas de efetuar a supervisão humana devem receber educação e formação adequada sobre o funcionamento do sistema de IA, as suas capacidades para influenciar ou tomar decisões, os eventuais efeitos prejudiciais dela resultantes, nomeadamente sobre os direitos fundamentais, e a probabilidade de ocorrência desses efeitos. Os responsáveis pela designação destas pessoas devem facultar-lhes o pessoal e apoio psicológico necessários e cometer‑lhes a autoridade necessária para exercerem essa função. |
Alteração 13
Proposta de regulamento
Considerando 57-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(57-A) Os sistemas de IA que tenham sido colocados no mercado mas exijam treino adicional ou a utilização de um modelo não fornecido pelo fornecedor devem ser considerados sistemas de IA de finalidade geral. O treino destes sistemas após a sua colocação no mercado deve ser considerado uma adaptação a uma finalidade específica. |
Alteração 14
Proposta de regulamento
Considerando 57-B (novo)
|
|
Texto da Comissão |
Alteração |
|
(57-B) As licenças de software de fonte aberta permitem aos utilizadores explorar, copiar, distribuir, estudar, alterar e melhorar livremente o software. Por regra, a utilização de software de fonte aberta desta forma atribui a responsabilidade ao utilizador, ao passo que, quando um fornecedor fornece software de fonte aberta a título comercial no quadro de um modelo de software como serviço (SaaS) ou de serviços profissionais, o prestador pode manter a responsabilidade em vez do utilizador. A investigação realizada pela Comissão Europeia mostra que o software de fonte aberta contribui para o PIB da União Europeia com um montante entre 65 a 95 mil milhões de EUR e proporciona oportunidades de crescimento significativas para a economia da União. Os fornecedores de fonte aberta devem estar habilitados a adotar o mesmo modelo económico para os sistemas de IA. Por conseguinte, as disposições do presente regulamento não devem aplicar-se aos sistemas de IA de fonte aberta até que esses sistemas entrem em serviço. A fim de garantir que os sistemas de IA não possam ser colocados em serviço sem cumprir o disposto no presente regulamento, quando um sistema de IA de fonte aberta é colocado em serviço, as obrigações associadas aos fornecedores devem ser transferidas para a pessoa que coloca o sistema em serviço. |
Alteração 15
Proposta de regulamento
Considerando 73
|
|
Texto da Comissão |
Alteração |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo sobre literacia em IA, ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados-Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
Alteração 16
Proposta de regulamento
Considerando 76
|
|
Texto da Comissão |
Alteração |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
(76) A fim de evitar a fragmentação e garantir o funcionamento ótimo do mercado único, é essencial garantir uma aplicação eficaz e harmoniosa do presente regulamento. Para o efeito, deve ser criado o Comité Europeu para a Inteligência Artificial, que deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. No entanto, essa solução poderá revelar‑se insuficiente para garantir uma ação transfronteiriça plenamente coerente e, por conseguinte, [no prazo de três anos após a data de aplicação do presente regulamento], a Comissão deverá ser obrigada a examinar se a criação de uma agência da UE é necessária para garantir uma aplicação coerente do presente regulamento a nível da União. |
Alteração 17
Proposta de regulamento
Considerando 76-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(76-A) A Comissão deve voltar a estabelecer o grupo de peritos de alto nível ou um órgão semelhante com uma composição nova e equilibrada, composta por um número igual de peritos de PME e de empresas em fase de arranque, de grandes empresas, do mundo universitário e da investigação, dos parceiros sociais e da sociedade civil. Este novo grupo de peritos de alto nível sobre sistemas de IA de confiança deve funcionar não apenas como órgão consultivo da Comissão, mas também do Comité. Pelo menos trimestralmente, o novo grupo de peritos de alto nível sobre sistemas de IA de confiança deve ter a possibilidade de partilhar os seus conhecimentos práticos e técnicos numa reunião especial com o Comité. |
Alteração 18
Proposta de regulamento
Considerando 77
|
|
Texto da Comissão |
Alteração |
(77) Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado‑Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo. |
(77) Os Estados-Membros desempenham um papel fundamental na aplicação e execução do presente regulamento. Nesse sentido, cada Estado‑Membro deve designar uma ou várias autoridades nacionais competentes para efeitos de supervisão da aplicação e execução do presente regulamento. A fim de aumentar a eficácia organizativa dos Estados-Membros e de criar um ponto de contacto oficial para o público e outras contrapartes a nível dos Estados-Membros e da União, cada Estado-Membro deve designar uma autoridade nacional como autoridade nacional de controlo. A fim de facilitar uma aplicação uniforme e coerente do presente regulamento, as autoridades nacionais de controlo devem cooperar de forma substancial e regular não só com o Comité, mas também entre si, para promover o intercâmbio de informações pertinentes e de boas práticas. A este respeito, e tendo em conta que, em razão da atual falta de peritos em IA, poderá ser difícil garantir, a nível nacional, que as autoridades de controlo disponham de recursos humanos adequados para desempenharem as suas funções, os Estados-Membros são também vivamente incentivados a ponderar a possibilidade de criar entidades transnacionais para assegurar a supervisão conjunta da aplicação do presente regulamento. |
Alteração 19
Proposta de regulamento
Considerando 80-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(80-A) As pessoas singulares ou coletivas afetadas por decisões tomadas por sistemas de IA que produzam efeitos jurídicos que afetem negativamente a sua saúde, segurança, direitos fundamentais, bem-estar socioeconómico ou quaisquer outros direitos decorrentes das obrigações estabelecidas no presente regulamento devem ter direito a uma explicação dessa decisão. Essa explicação deve ser fornecida às pessoas afetadas e, por conseguinte, ao prestarem essa explicação, os fornecedores e utilizadores devem ter devidamente em conta que o nível de especialização e de conhecimentos do consumidor ou cidadão médio em matéria de sistemas de IA é limitado e muito inferior ao que possuem. Por outro lado, alguns sistemas de IA não podem fornecer uma explicação das suas decisões além dos dados de entrada iniciais. Quando os sistemas de IA são obrigados a fornecer uma explicação e não podem fazê-lo, devem indicar claramente que não pode ser fornecida uma explicação. Tal deve ser tido em conta por qualquer autoridade administrativa, não administrativa ou judicial que trate de reclamações de pessoas afetadas. |
Alteração 20
Proposta de regulamento
Considerando 85
|
|
Texto da Comissão |
Alteração |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados-Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
(85) Para assegurar que é possível adaptar o quadro regulamentar quando necessário, o poder de adotar atos nos termos do artigo 290.º do TFUE deve ser delegado na Comissão no que diz respeito à alteração das técnicas e abordagens que definem sistemas de IA mencionadas no anexo I, da legislação de harmonização da União enumerada no anexo II, da lista de sistemas de IA de risco elevado constante do anexo III, das disposições relativas à documentação técnica que constam do anexo IV, do conteúdo da declaração de conformidade UE estabelecido no anexo V, das disposições relativas aos procedimentos de avaliação da conformidade que constam dos anexos VI e VII e das disposições que definem os sistemas de IA de risco elevado aos quais se deve aplicar o procedimento de avaliação da conformidade com base na avaliação do sistema de gestão da qualidade e na avaliação da documentação técnica. É particularmente importante que a Comissão proceda às consultas adequadas durante os trabalhos preparatórios, inclusive ao nível de peritos, e que essas consultas sejam conduzidas de acordo com os princípios estabelecidos no Acordo Interinstitucional, de 13 de abril de 2016, sobre legislar melhor58 Estas consultas devem envolver a participação de uma seleção equilibrada de partes interessadas, incluindo organizações de consumidores, associações representativas das pessoas afetadas, representantes de empresas de diferentes setores e dimensões, sindicatos, bem como investigadores e cientistas. Em particular, a fim de assegurar a igualdade de participação na preparação dos atos delegados, o Parlamento Europeu e o Conselho recebem todos os documentos ao mesmo tempo que os peritos dos Estados‑Membros e os respetivos peritos têm sistematicamente acesso às reuniões dos grupos de peritos da Comissão que tratem da preparação dos atos delegados. |
Alteração 21
Proposta de regulamento
Considerando 86-A (novo)
|
|
Texto da Comissão |
Alteração |
|
(86-A) Tendo em conta a rápida evolução tecnológica e os conhecimentos técnicos necessários para realizar a avaliação dos sistemas de IA de risco elevado, os poderes delegados na Comissão e as competências de execução que lhe são conferidas devem ser exercidos com a maior flexibilidade possível. A Comissão deve reexaminar periodicamente o anexo III sem demora injustificada, consultando, nesse contexto, as partes interessadas pertinentes. |
Alteração 22
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial («sistemas de IA») na União; |
a) Regras harmonizadas para o desenvolvimento, a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial («sistemas de IA») centrados no ser humano e de confiança na União em conformidade com os valores democráticos; |
Alteração 23
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Regras de transparência harmonizadas para sistemas de IA concebidos para interagir com pessoas singulares, sistemas de reconhecimento de emoções e sistemas de categorização biométrica, bem como para sistemas de IA usados para gerar ou manipular conteúdos de imagem, áudio ou vídeo; |
d) Regras de transparência harmonizadas para determinados sistemas de IA; |
Alteração 24
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Regras relativas à fiscalização e vigilância do mercado. |
e) Regras relativas à governação, à fiscalização do mercado, à vigilância do mercado e à execução. |
Alteração 25
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) Um elevado nível de proteção dos interesses públicos, como a saúde, a segurança, os direitos fundamentais e o ambiente, contra potenciais danos causados pela inteligência artificial; |
Alteração 26
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) Medidas de apoio à inovação com um destaque especial para as PME e as empresas em fase de arranque, incluindo, mas não exclusivamente, a criação de ambientes de testagem da regulamentação e de medidas destinadas a reduzir a obrigação de conformidade nas PME e nas empresas em fase de arranque. |
Alteração 27
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-C) Disposições sobre a criação de um «Comité Europeu para a Inteligência Artificial» independente e desenvolvimento das suas atividades de apoio à aplicação do presente regulamento. |
Alteração 28
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Utilizadores de sistemas de IA localizados na União; |
b) Utilizadores de sistemas de IA que estejam localizados ou estabelecidos na União; |
Alteração 29
Proposta de regulamento
Artigo 2 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Fornecedores e utilizadores de sistemas de IA localizados num país terceiro, se o resultado produzido pelo sistema for utilizado na União. |
c) Fornecedores e utilizadores de sistemas de IA localizados num país terceiro, se o resultado, ou seja as previsões, recomendações ou decisões, produzido pelo sistema e que influencia o ambiente com o qual interage, for utilizado na União e colocar em risco o ambiente ou a saúde, a segurança ou os direitos fundamentais das pessoas singulares fisicamente presentes na União, quando o fornecedor ou o utilizador tenha autorizado uma tal utilização, esteja ciente dessa utilização ou possa razoavelmente esperar essa utilização; |
Alteração 30
Proposta de regulamento
Artigo 2 – n.º 1 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Importadores, distribuidores e representantes autorizados de fornecedores de sistemas de IA; |
Alteração 31
Proposta de regulamento
Artigo 2 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito dos atos a seguir enumerados, apenas é aplicável o artigo 84.º do presente regulamento: |
2. Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas e que são abrangidos pelo âmbito dos atos enumerados no anexo II, secção B apenas é aplicável o artigo 84.º do presente regulamento. |
a) Regulamento (CE) n.º 300/2008; |
|
b) Regulamento (UE) n.º 167/2013; |
|
c) Regulamento (UE) n.º 168/2013; |
|
d) Diretiva 2014/90/UE; |
|
e) Diretiva (UE) 2016/797; |
|
f) Regulamento (UE) 2018/858; |
|
g) Regulamento (UE) 2018/1139; |
|
h) Regulamento (UE) 2019/2144. |
|
Alteração 32
Proposta de regulamento
Artigo 2 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O presente regulamento não se aplica aos sistemas de IA desenvolvidos ou usados exclusivamente para fins militares. |
Suprimido |
Alteração 33
Proposta de regulamento
Artigo 2 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. O presente regulamento não afeta as atividades de investigação, ensaio e desenvolvimento relativamente a um sistema de IA antes de esse sistema ser colocado no mercado ou em serviço, desde que essas atividades sejam realizadas no respeito dos direitos fundamentais e do direito da União aplicável. A Comissão fica habilitada a adotar atos delegados em conformidade com o artigo 138.º para especificar essa isenção. O Comité fornece orientações sobre a governação da investigação e desenvolvimento nos termos do artigo 56.º, n.º 2, alínea c-C), visando também coordenar a forma como esta isenção é posta em prática pela Comissão e pelas autoridades nacionais de controlo. |
Alteração 34
Proposta de regulamento
Artigo 2 – n.º 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. O título III do presente regulamento não se aplica aos sistemas de IA utilizados num ambiente estritamente entre empresas e desde que esses sistemas não representem um risco de danos para o ambiente, a saúde ou a segurança ou um risco de impacto adverso nos direitos fundamentais. |
Alteração 35
Proposta de regulamento
Artigo 2 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. O presente regulamento não se aplica aos sistemas de IA de fonte aberta até que esses sistemas sejam colocados em serviço ou disponibilizados no mercado em troca de pagamento, independentemente de esse pagamento se destinar ao próprio sistema de IA, à prestação do sistema de IA enquanto serviço ou à prestação de apoio técnico ao sistema de IA enquanto serviço. |
Alteração 36
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A) «Sistema de IA de finalidade geral», um sistema de IA, independentemente da modalidade em que tenha sido colocado no mercado ou colocado em serviço, incluindo como software de fonte aberta, cujo fornecedor preveja que desempenha funções de aplicação geral, como o reconhecimento de imagem ou de fala, a reprodução de áudio ou vídeo, a deteção de padrões, a resposta a perguntas e tradução, ou outras; um sistema de IA de finalidade geral pode ser utilizada em múltiplos contextos e pode ser integrado num elevado número de outros sistemas de IA; |
Alteração 37
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1-B) (novo)
|
|
Texto da Comissão |
Alteração |
|
1-B) «Sistemas de IA de fonte aberta», sistemas de IA, incluindo dados de teste e treino, ou modelos treinados, distribuídos ao abrigo de licenças abertas. |
Alteração 38
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 2
|
|
Texto da Comissão |
Alteração |
2) «Fornecedor», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido com vista à sua colocação no mercado ou colocação em serviço sob o seu próprio nome ou marca, a título oneroso ou gratuito; |
2) «Fornecedor», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que desenvolva um sistema de IA ou que tenha um sistema de IA desenvolvido com vista à sua colocação no mercado ou colocação em serviço sob o seu próprio nome ou marca, a título oneroso ou gratuito, ou que adapta sistemas de IA de finalidade geral a uma finalidade específica; |
Alteração 39
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A) «Pessoa afetada» qualquer pessoa singular ou grupo de pessoas que são sujeitas a um sistema de IA ou são afetadas por esse sistema; |
Alteração 40
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 43
|
|
Texto da Comissão |
Alteração |
43) «Autoridade nacional competente», a autoridade de controlo, a autoridade notificadora ou a autoridade de fiscalização do mercado designadas a nível nacional; |
Suprimido |
Alteração 41
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44-A (novo)
|
|
Texto da Comissão |
Alteração |
|
44-A) «Literacia em IA», as competências, o conhecimento e a compreensão relativamente a sistemas de IA que são necessários para o cumprimento e a execução do presente regulamento. |
Alteração 42
Proposta de regulamento
Artigo 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-A |
|
Princípios gerais aplicáveis a todos os sistemas de IA |
|
1. Todos os operadores de IA devem respeitar os seguintes princípios gerais que estabelecem um quadro de alto nível para promover uma abordagem europeia coerente, centrada no ser humano, em matéria de inteligência artificial ética e fiável, que esteja em plena consonância com a Carta, bem como com os valores em que se funda a União: |
|
• «Iniciativa e controlo por humanos», os sistemas de IA devem ser desenvolvidos e utilizados como um instrumento ao serviço das pessoas, que respeite a dignidade humana e a autonomia pessoal, e que funcione de uma forma que possa ser controlada e supervisionada pelos seres humanos de forma apropriada. |
|
• «Robustez técnica e segurança», os sistemas de IA devem ser desenvolvidos e utilizados de forma a minimizar danos imprevistos e não intencionais, devem ser sólidos em caso de problemas imprevistos e devem ser resilientes contra tentativas de alteração da utilização ou do desempenho do sistema de IA tendo em vista permitir uma utilização ilícita por terceiros mal intencionados. |
|
• «Privacidade e governação de dados», os sistemas de IA devem ser desenvolvidos e utilizados em conformidade com as regras existentes em matéria de privacidade e proteção de dados e devem tratar dados que satisfaçam normas rigorosas em termos de qualidade e integridade. |
|
• «Transparência», os sistemas de IA devem ser desenvolvidos e utilizados de forma a permitir uma rastreabilidade e explicabilidade adequadas, sensibilizando ao mesmo tempo os seres humanos para o facto de estarem a comunicar ou a interagir com um sistema de IA, bem como informando devidamente os utilizadores das capacidades e limitações desse sistema de IA, e informando as pessoas afetadas dos direitos que lhes assistem. |
|
• «Diversidade, não discriminação e equidade», os sistemas de IA devem ser desenvolvidos e utilizados de forma a incluir diferentes intervenientes e a promover a igualdade de acesso, a igualdade de género e a diversidade cultural, evitando simultaneamente efeitos discriminatórios e enviesamentos injustos que sejam proibidos pelo direito da União ou pelo direito interno dos Estados-Membros. |
|
• «Bem-estar social e ambiental», os sistemas de IA devem ser desenvolvidos e utilizados de forma sustentável e respeitadora do ambiente, bem como de forma a trazer benefícios a todos os seres humanos, controlando e avaliando os impactos a longo prazo na pessoa, na sociedade e na democracia. |
|
2. O n.º 1 não prejudica as obrigações estabelecidas pelo direito da União e pelo direito nacional em vigor. |
|
No caso dos sistemas de IA de risco elevado, os princípios gerais são aplicados e cumpridos pelos fornecedores ou utilizadores através dos requisitos estabelecidos nos artigos 8.º a 15.º do presente regulamento. Para todos os outros sistemas de IA, incentiva-se vivamente a aplicação voluntária com base em normas harmonizadas, especificações técnicas e códigos de conduta, conforme referido no artigo 69.º, com vista a respeitar os princípios enumerados no n.º 1. |
|
3. A Comissão e o Comité devem formular recomendações que ajudem os fornecedores e os utilizadores a desenvolver e a utilizar sistemas de IA em conformidade com os princípios gerais. As organizações europeias de normalização devem ter em conta os princípios referidos no n.º 1 como objetivos orientados para os resultados no desenvolvimento das normas harmonizadas pertinentes para sistemas de IA de risco elevado, conforme referido no artigo 40.º, n.º 2-B. |
Alteração 43
Proposta de regulamento
Artigo 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 4.º-B |
|
Literacia em IA |
|
1. Na execução do presente regulamento, a União e os Estados-Membros promovem medidas e ferramentas para o desenvolvimento de um nível suficiente de literacia em IA, em todos os setores e tendo em conta as diferentes necessidades dos grupos de fornecedores, utilizadores e pessoas afetadas, nomeadamente através da educação e formação, de programas de qualificação e requalificação e garantindo, ao mesmo tempo, um equilíbrio adequado em matéria de género e de idade, com vista a permitir um controlo democrático dos sistemas de IA. |
|
2. Os fornecedores e utilizadores de sistemas de IA promovem ferramentas e tomam medidas para garantir um nível suficiente de literacia em IA junto do seu pessoal e de outras pessoas envolvidas na operação e utilização de sistemas de IA em seu nome, tendo em conta os seus conhecimentos técnicos, experiência, educação e formação e os ambientes em que os sistemas de IA serão utilizados, e tendo em conta as pessoas ou grupos de pessoas relativamente às quais os sistemas de IA serão utilizados. |
|
3. Tais ferramentas e medidas de literacia consistem, nomeadamente, no ensino e aprendizagem de noções e competências básicas sobre os sistemas de IA e o respetivo funcionamento, incluindo os diferentes tipos de produtos e utilizações, os seus riscos e vantagens e a gravidade dos eventuais danos que podem causar e a probabilidade da sua ocorrência. |
|
4. Um nível suficiente de literacia no domínio da IA contribui, se necessário, para a capacidade de os fornecedores e utilizadores garantirem o cumprimento e a aplicação do presente regulamento. |
Alteração 44
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Prestação de informações adequadas nos termos do artigo 13.º, em especial no atinente aos riscos a que se refere o n.º 2, alínea b), do presente artigo e, se for caso disso, formação dos utilizadores. |
c) Prestação de informações adequadas nos termos do artigo 13.º, em especial no atinente aos riscos a que se refere o n.º 2, alínea b), do presente artigo e, se for caso disso, formação dos utilizadores, para garantir um nível suficiente de literacia no tocante à IA, em consonância com o artigo 3.º-B. |
Alteração 45
Proposta de regulamento
Artigo 9 – n.º 9
|
|
Texto da Comissão |
Alteração |
9. Em relação às instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos nos n.os 1 a 8 fazem parte dos procedimentos de gestão de riscos estabelecidos por essas instituições nos termos do artigo 74.º da referida diretiva. |
9. Em relação a fornecedores de sistemas de IA já abrangidos por outros atos da legislação da União que os obriguem a implementar sistemas de gestão de riscos específicos, nomeadamente instituições de crédito regulamentadas pela Diretiva 2013/36/UE, os aspetos descritos n.ºs 1 a 8 fazem parte dos procedimentos de gestão de riscos estabelecidos pelos referidos atos da legislação da União. |
Alteração 46
Proposta de regulamento
Artigo 13 – título
|
|
Texto da Comissão |
Alteração |
Transparência e prestação de informações aos utilizadores |
Transparência e prestação de informações |
Alteração 47
Proposta de regulamento
Artigo 13 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá-lo corretamente. Deve ser garantido um tipo e um grau adequado de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de forma a garantir que o seu funcionamento seja suficientemente transparente para permitir aos fornecedores e utilizadores compreender razoavelmente o funcionamento do sistema. Deve ser garantida transparência adequada, em conformidade com a finalidade prevista do sistema de IA, que permita cumprir as obrigações que incumbem ao fornecedor e ao utilizador, por força dos artigos 16.º e 29.º do presente título. |
|
Transparência significa que, no momento em que o sistema de IA de risco elevado é colocado no mercado, todos os meios técnicos disponíveis em consonância com o estado da técnica geralmente reconhecido são utilizados para assegurar que os resultados do sistema de IA sejam interpretáveis pelo fornecedor e pelo utilizador. O utilizador deve poder compreender e utilizar o sistema de IA de forma adequada, sabendo, de um modo geral, como funciona o sistema de IA e quais os dados que trata, o que permite ao utilizador explicar as decisões tomadas pelo sistema de IA à pessoa afetada nos termos do artigo 68.º, alínea c). |
Alteração 48
Proposta de regulamento
Artigo 13 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização compreensíveis, num formato digital ou disponibilizado num formato duradouro, que incluam informações concisas, corretas, claras e, na medida do possível, completas que contribuam para o funcionamento e a manutenção do sistema de IA, bem como para apoiar a tomada de decisões informadas pelos utilizadores e que sejam razoavelmente pertinentes, acessíveis e compreensíveis para os utilizadores. |
Alteração 49
Proposta de regulamento
Artigo 13 – n.º 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. As informações a que se refere o n.º 2 devem especificar: |
3. Para alcançar os resultados mencionados no n.º 1, as informações a que se refere o n.º 2 devem especificar: |
Alteração 50
Proposta de regulamento
Artigo 13 – n.º 3 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A identidade e os dados de contacto do fornecedor e, se for caso disso, do seu mandatário; |
a) A identidade e os dados de contacto do fornecedor e, se for caso disso, dos seus mandatários; |
Alteração 51
Proposta de regulamento
Artigo 13 – n.º 3 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Quando sejam diferentes dos do fornecedor, a identidade e os dados de contacto da entidade que efetuou a avaliação da conformidade e, se for caso disso, do seu mandatário; |
Alteração 52
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – parte introdutória
|
|
Texto da Comissão |
Alteração |
b) As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo: |
b) As características, capacidades e limitações de desempenho do sistema de IA de risco elevado, incluindo, se necessário: |
Alteração 53
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea ii)
|
|
Texto da Comissão |
Alteração |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança, |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias claramente conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança, |
Alteração 54
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança ou os direitos fundamentais, |
iii) qualquer circunstância claramente conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança, os direitos fundamentais ou o ambiente, incluindo, se for caso disso, exemplos ilustrativos dessas limitações e de cenários em que o sistema não deve ser utilizado, |
Alteração 55
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea iii-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-A) em que medida o sistema de IA pode proporcionar uma explicação para as decisões que toma; |
Alteração 56
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea v)
|
|
Texto da Comissão |
Alteração |
v) quando oportuno, especificações para os dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA; |
v) informações pertinentes sobre as ações dos utilizadores suscetíveis de afetar o desempenho do sistema, incluindo o tipo ou a qualidade dos dados de entrada, ou quaisquer outras informações importantes em termos dos conjuntos de dados de treino, validação e teste usados, tendo em conta a finalidade prevista do sistema de IA; |
Alteração 57
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) A vida útil esperada do sistema de IA de risco elevado e quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software. |
e) Quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software ao longo da sua vida útil prevista. |
Alteração 58
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-A) Uma descrição dos mecanismos incluídos no sistema de IA que permita aos utilizadores recolher, armazenar e interpretar corretamente os registos em conformidade com o disposto no artigo 12.º, n.º 1. |
Alteração 59
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
e-B) A informação deve ser transmitida, no mínimo, na língua oficial do país onde o sistema de IA é utilizado. |
Alteração 60
Proposta de regulamento
Artigo 13 – n.º 3-A (novo)
|
|
Texto da Comissão |
Alteração |
|
3-A. A fim de cumprir as obrigações previstas no presente artigo, os fornecedores e os utilizadores garantem um nível suficiente de literacia em matéria de IA, em consonância com o artigo 4.º-B. |
Alteração 61
Proposta de regulamento
Artigo 14 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que possam ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem-máquina apropriadas, que sejam eficazmente supervisionados por pessoas singulares proporcionalmente aos riscos associados aos referidos sistemas. As pessoas singulares responsáveis por assegurar a supervisão humana devem ter um nível suficiente de literacia no domínio da IA, em conformidade com o artigo 4.º-B, bem como o apoio e a autoridade necessários para exercer essa função durante o período em que o sistema de IA esteja a ser utilizado e para permitir uma investigação exaustiva após um incidente. |
Alteração 62
Proposta de regulamento
Artigo 14 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança, os direitos fundamentais ou o ambiente que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo e sempre que decisões baseadas exclusivamente no tratamento automatizado por sistemas de IA produzam efeitos jurídicos ou significativos nas pessoas ou nos grupos de pessoas em que o sistema se destina a ser utilizado. |
Alteração 63
Proposta de regulamento
Artigo 14 – n.º 3 – parte introdutória
|
|
Texto da Comissão |
Alteração |
3. A supervisão humana deve ser assegurada por meio de um ou de todos os seguintes tipos de medidas: |
3. A supervisão humana deve ter em conta aos riscos específicos, o nível de automação e o contexto do sistema de IA e esta deve ser assegurada por meio de um ou os seguintes tipos de medidas: |
Alteração 64
Proposta de regulamento
Artigo 14 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. As medidas a que se refere o n.º 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, em função das circunstâncias: |
4. Para efeitos da aplicação dos n.ºs 1 a 3, o sistema de IA de risco elevado deve ser fornecido ao utilizador de forma a que as pessoas singulares responsáveis pela supervisão humana, em função das circunstâncias e proporcionalmente às mesmas: |
Alteração 65
Proposta de regulamento
Artigo 14 – n.º 4 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Compreendam completamente as capacidades e limitações do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
a) Compreendam de forma suficiente as capacidades e limitações pertinentes do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
Alteração 66
Proposta de regulamento
Artigo 14 – n.º 4 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar. |
e) Sejam capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar, que permita que o sistema pare num estado seguro, exceto se a interferência humana aumentar os riscos ou afetar negativamente o desempenho, tendo em conta o estado da técnica geralmente reconhecido. |
Alteração 67
Proposta de regulamento
Artigo 14 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares. |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares com a competência, a formação e a autoridade necessárias. |
Alteração 68
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título; |
a) Assegurar que os seus sistemas de IA de risco elevado cumprem os requisitos estabelecidos no capítulo 2 do presente título antes de os colocarem no mercado ou em serviço; |
Alteração 69
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Indicar o seu nome, nome comercial registado ou marca registada e o endereço de contacto no sistema de IA de risco elevado, ou, se tal não for possível, na respetiva embalagem ou na documentação que o acompanha, conforme aplicável; |
Alteração 70
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Elaborar a documentação técnica do sistema de IA de risco elevado; |
c) Conservar a documentação e, caso ainda não esteja disponível, elaborar a documentação técnica a que se refere o artigo 18.º |
Alteração 71
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que fornecem; |
d) Quando tal esteja sob o seu controlo, manter os registos gerados automaticamente pelos sistemas de IA de risco elevado que fornecem, em conformidade com o artigo 20.º; |
Alteração 72
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Assegurar que o sistema de IA de risco elevado seja sujeito ao procedimento de avaliação da conformidade aplicável, antes da colocação no mercado ou da colocação em serviço; |
e) Levar a cabo o procedimento de avaliação da conformidade aplicável previsto no artigo 19.º, antes da colocação no mercado ou da colocação em serviço; |
Alteração 73
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Adotar as medidas corretivas necessárias, se o sistema de IA de risco elevado não estiver em conformidade com os requisitos estabelecidos no capítulo 2 do presente título; |
g) Adotar as medidas corretivas necessárias mencionadas no artigo 21.º, se o sistema de IA de risco elevado não estiver em conformidade com os requisitos estabelecidos no capítulo 2 do presente título; |
Alteração 74
Proposta de regulamento
Artigo 16 – parágrafo 1 – alínea j)
|
|
Texto da Comissão |
Alteração |
j) Mediante pedido de uma autoridade nacional competente, demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. |
j) Mediante pedido fundamentado de uma autoridade nacional competente, facultar as informações e a documentação pertinentes para demonstrar a conformidade do sistema de IA de risco elevado com os requisitos estabelecidos no capítulo 2 do presente título. |
Alteração 75
Proposta de regulamento
Artigo 23-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 23.º-A |
|
Condições para sujeitar outras pessoas às obrigações de um fornecedor |
|
1. No que diz respeito aos sistemas de IA de risco elevado, qualquer pessoa singular ou coletiva deve ser considerada novo fornecedor, para efeitos do presente regulamento, ficando sujeita às obrigações do fornecedor estabelecidas no artigo 16.º em qualquer uma das seguintes circunstâncias: |
|
a) Se colocar o seu nome ou marca num sistema de IA de risco elevado já colocado no mercado ou colocado em serviço, sem prejuízo de disposições contratuais que estipulem uma atribuição diferente das obrigações; |
|
b) Se modificar substancialmente um sistema de IA de risco elevado já colocado no mercado ou colocado em serviço ou modificar a finalidade prevista do referido sistema; |
|
c) Se modificar a finalidade prevista de um sistema de IA que não seja de risco elevado já colocado no mercado ou colocado em serviço de tal forma que o transforme num sistema de IA de risco elevado; |
|
d) Se colocar no mercado ou disponibilizar, com ou sem alterações e mediante pagamento, um sistema de IA de fonte aberta, um sistema de IA derivado de um sistema de IA de fonte aberta ou serviços de apoio técnico para esses sistemas de IA de fonte aberta; |
|
e) Se adaptar um sistema de IA de finalidade geral já colocado no mercado ou em serviço num sistema de IA de finalidade específica. |
|
2. Sempre que se verificarem as circunstâncias a que se refere o n.º 1, alíneas a), b), c) ou d), o fornecedor anterior que inicialmente colocou no mercado ou colocou em serviço o sistema de IA de risco elevado deixa de ser considerado fornecedor para efeitos do presente regulamento. O fornecedor anterior deve, mediante pedido e sem comprometer os seus próprios direitos de propriedade intelectual ou segredos comerciais, disponibilizar ao novo fornecedor todas as informações essenciais, pertinentes e razoavelmente esperadas que sejam necessárias para o cumprimento das obrigações previstas no presente regulamento. |
|
3. O fornecedor original de um sistema de IA de finalidade geral deve, tal como referido no n.º 1, alínea e), respeitando os seus próprios direitos de propriedade intelectual ou segredos comerciais e tendo em conta os riscos especificamente associados à adaptação do sistema de IA de finalidade geral a uma finalidade prevista específica: |
|
a) garantir que o sistema de IA de finalidade geral que possa ser utilizado como um sistema de IA de risco elevado cumpra os requisitos previstos nos artigos 9.º, 10.º e 11.º, no artigo 13.º, n.ºs 2 e 3, no artigo 14.º, n.º 1, e no artigo 15.º do presente regulamento; |
|
b) cumprir as obrigações previstas no artigo 16.º, alíneas a-A), e), f), g), i) e j) e nos artigos 48.º e 61.º do presente regulamento; |
|
c) avaliar as utilizações indevidas razoavelmente previsíveis do sistemas de IA de finalidade geral que possam surgir durante o seu ciclo de vida esperado e aplicar medidas de atenuação contra essas situações, com base no estado da técnica geralmente reconhecido; |
|
d) disponibilizar ao novo fornecedor mencionado no n.º 1, alínea d), todas as informações essenciais, pertinentes e razoavelmente esperadas que sejam necessárias para o cumprimento das obrigações previstas no presente regulamento. |
|
4. No caso dos sistemas de IA de risco elevado que sejam componentes de segurança de produtos aos quais se apliquem os atos jurídicos enunciados no anexo II, secção A, o fabricante desses produtos deve ser considerado o fornecedor do sistema de IA de risco elevado e deve ficar sujeito às obrigações mencionadas no artigo 16.º, em qualquer um dos seguintes cenários: |
|
i) o sistema de IA de risco elevado é colocado no mercado juntamente com o produto sob o nome ou marca do respetivo fabricante, ou |
|
ii) o sistema de IA de risco elevado é colocado em serviço sob o nome ou marca do fabricante do produto, depois de o produto ter sido colocado no mercado. |
|
5. Os terceiros envolvidos na venda e na oferta de software que inclua interfaces de programação de aplicações (API) de uso geral, ferramentas de software e componentes, ou os fornecedores de serviços de rede não devem ser considerados fornecedores para efeitos do presente regulamento. |
Alteração 76
Proposta de regulamento
Artigo 29 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os utilizadores de sistemas de IA de risco elevado devem utilizá-los de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.os 2 e 5. |
1. Os utilizadores de sistemas de IA de risco elevado tomam medidas organizacionais adequadas e asseguram que a utilização desses sistemas se faça de acordo com as instruções de utilização que acompanham os sistemas, nos termos dos n.ºs 1-A a 5. Os utilizadores são responsáveis em caso de utilização do sistema de IA que não seja conforme com as instruções de utilização que acompanham os sistemas. |
Alteração 77
Proposta de regulamento
Artigo 29 – parágrafo 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. Na medida em que exerça controlo sobre o sistema de IA de risco elevado, o utilizador apenas deve atribuir responsabilidades de supervisão humana a pessoas singulares que possuam os conhecimentos necessários em termos de IA, em conformidade com o artigo 4.º-B. |
Alteração 78
Proposta de regulamento
Artigo 29 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As obrigações previstas no n.º 1 não excluem outras obrigações do utilizador previstas na legislação da União ou nacional nem prejudicam o poder discricionário do utilizador para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor. |
2. As obrigações previstas nos n.ºs 1 e 1-A não excluem outras obrigações do utilizador previstas na legislação da União ou nacional nem prejudicam o poder discricionário do utilizador para organizar os seus próprios recursos e atividades para efeitos de aplicação das medidas de supervisão humana indicadas pelo fornecedor. |
Alteração 79
Proposta de regulamento
Artigo 29 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Sem prejuízo do disposto no n.º 1, desde que o utilizador exerça controlo sobre os dados de entrada, esse utilizador deve assegurar que os dados de entrada sejam adequados à finalidade prevista do sistema de IA de risco elevado. |
3. Sem prejuízo do disposto no n.º 1, desde que o utilizador exerça controlo sobre os dados de entrada, esse utilizador deve assegurar que os dados de entrada sejam suficientemente representativos e adequados à finalidade prevista do sistema de IA de risco elevado. |
Alteração 80
Proposta de regulamento
Artigo 29 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
4. Os utilizadores devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização. Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.º, n.º 1, devem informar o fornecedor ou distribuidor e suspender a utilização do sistema. Devem também informar o fornecedor ou distribuidor e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave ou anomalia na aceção do artigo 62.º. Se o utilizador não conseguir entrar em contacto com o fornecedor, aplica-se, por analogia, o artigo 62.º. |
4. Os utilizadores devem controlar o funcionamento do sistema de IA de risco elevado com base nas instruções de utilização e, se for caso disso, informar o fornecedor, em conformidade com o artigo 61.º. Na medida em que exerça controlo sobre o sistema de IA de risco elevado, o utilizador também deve realizar uma avaliação dos riscos em conformidade com o artigo 9.º, mas limitada aos potenciais efeitos adversos de utilizar o sistema de IA de risco elevado e às medidas de atenuação dos mesmos. Se tiverem motivos para considerar que a utilização de acordo com as instruções de utilização pode fazer com que o sistema de IA apresente um risco na aceção do artigo 65.º, n.º 1, devem informar o fornecedor ou distribuidor e suspender a utilização do sistema. Devem também informar o fornecedor ou distribuidor e a autoridade supervisora competente e interromper a utilização do sistema de IA caso identifiquem qualquer incidente grave. Se o utilizador não conseguir entrar em contacto com o fornecedor, o importador ou o distribuidor, aplica-se, por analogia, o artigo 62.º. |
Alteração 81
Proposta de regulamento
Artigo 29 – n.º 5 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
5. Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo. Os registos devem ser mantidos por um período adequado em função da finalidade prevista do sistema de IA de risco elevado e das obrigações legais aplicáveis nos termos da legislação da União ou nacional. |
5. Os utilizadores de sistemas de IA de risco elevado devem manter os registos gerados automaticamente por esse sistema de IA de risco elevado, desde que esses registos estejam sob o seu controlo e que tal seja exequível do ponto de vista técnico. Devem conservá-los por um período mínimo de seis meses, salvo disposição em contrário na legislação da União ou nacional aplicável. |
Alteração 82
Proposta de regulamento
Artigo 29 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os utilizadores de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.º para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680, conforme aplicável. |
6. Os utilizadores de sistemas de IA de risco elevado devem usar as informações recebidas nos termos do artigo 13.º para cumprirem a sua obrigação de realizar uma avaliação de impacto sobre a proteção de dados nos termos do artigo 35.º do Regulamento (UE) 2016/679 ou do artigo 27.º da Diretiva (UE) 2016/680 e podem remeter, conforme aplicável, para essas avaliações de impacto de proteção de dados para o cumprimento das obrigações previstas no presente artigo. |
Alteração 83
Proposta de regulamento
Artigo 29 – parágrafo 6-A (novo)
|
|
Texto da Comissão |
Alteração |
|
6-A. O fornecedor deve ser obrigado a cooperar estreitamente com o utilizador e, concretamente, a disponibilizar-lhe as informações necessárias e adequadas que lhe permitam cumprir as obrigações previstas no presente artigo. |
Alteração 84
Proposta de regulamento
Artigo 29 – n.º 6-B (novo)
|
|
Texto da Comissão |
Alteração |
|
6-B. Os utilizadores devem cooperar com as autoridades nacionais competentes em qualquer ação que estas empreendam em relação a um sistema de IA. |
Alteração 85
Proposta de regulamento
Artigo 40 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Presume-se que os sistemas de IA de risco elevado que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais normas abranjam esses requisitos. |
1. Presume-se que os sistemas de IA de risco elevado que estão em conformidade com normas harmonizadas, ou com partes destas, cujas referências tenham sido publicadas no Jornal Oficial da União Europeia, são conformes com os requisitos estabelecidos no capítulo 2 do presente título, desde que tais normas abranjam esses requisitos. |
Alteração 86
Proposta de regulamento
Artigo 40 – n.º 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
1-A. Ao enviar um pedido de normalização a uma organização europeia de normalização em conformidade com o artigo 10.º do Regulamento (UE) n.º 1025/2012, a Comissão deve especificar que as normas são coerentes, fáceis de aplicar e elaboradas de uma forma que permita cumprir, concretamente, os seguintes objetivos: |
|
a) Garantir que os sistemas de IA colocados no mercado ou colocados em serviço na União sejam seguros, fiáveis e respeitem os valores e reforcem a soberania digital da União; |
|
b) Ter em conta os princípios gerais da IA de confiança previsto no artigo 4.º, alínea a); |
|
c) Promover o investimento e a inovação em IA, bem como a competitividade e o crescimento do mercado da União; |
|
d) Melhorar a governação multilateral, representativa de todas as partes interessadas europeias (por exemplo, indústria, PME, sociedade civil, parceiros sociais, investigadores); |
|
e) Contribuir para o reforço da cooperação mundial em matéria de normalização no domínio da IA, compatível com os valores, os direitos fundamentais e os interesses da União. |
|
A Comissão deve solicitar às organizações europeias de normalização que apresentem provas dos seus melhores esforços para cumprir os objetivos acima referidos. |
|
1-B. A Comissão deve emitir pedidos de normalização que abranjam todos os requisitos do presente regulamento, em conformidade com o artigo 10.º do Regulamento (UE) n.º 1025/2012, antes da entrada em vigor do presente regulamento. |
Alteração 87
Proposta de regulamento
Artigo 52 – título
|
|
Texto da Comissão |
Alteração |
Obrigações de transparência aplicáveis a determinados sistemas de inteligência artificial |
Obrigações de transparência |
Alteração 88
Proposta de regulamento
Artigo 52 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que o sistema de IA, o próprio fornecedor ou o utilizador informem, de uma forma atempada, clara e compreensível, as pessoas singulares expostas a um sistema de IA de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. |
|
Se adequado e pertinente, estas informações devem também incluir dados sobre as funções que são ativadas pela IA, a eventual supervisão humana e a responsabilidade pelo processo de tomada de decisão, bem como os direitos e processos existentes que, de acordo com o direito da União e o direito nacional, permitem que as pessoas singulares ou os seus representantes se oponham à aplicação de tais sistemas e procurem obter reparação judicial contra as decisões tomadas ou os danos causados por sistemas de IA, incluindo o seu direito de solicitar uma explicação. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
Alteração 89
Proposta de regulamento
Artigo 52 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica devem informar sobre o funcionamento do sistema as pessoas a ele expostas. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
2. Os utilizadores de um sistema de reconhecimento de emoções ou de um sistema de categorização biométrica que não seja proibido nos termos do artigo 5.º devem apresentar, de forma atempada, clara e compreensível, informações sobre o funcionamento do sistema às pessoas a ele expostas e devem obter o seu consentimento prévio para o tratamento dos respetivos dados biométricos ou outros dados pessoais, em conformidade com o Regulamento (UE) 2016/679, o Regulamento (UE) 2016/1725 e a Diretiva (UE) 2016/280, consoante aplicável. Esta obrigação não se aplica a sistemas de IA usados para categorização biométrica que sejam legalmente autorizados para detetar, prevenir e investigar infrações penais. |
Alteração 90
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
3. Os utilizadores de um sistema de IA que gera ou manipula conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, objetos, locais ou outras entidades ou acontecimentos reais e que, falsamente, pareçam ser autênticos e verdadeiros a uma pessoa («falsificação profunda») devem divulgar que o conteúdo foi gerado ou manipulado artificialmente. |
3. Os utilizadores de um sistema de IA que gera ou manipula conteúdos de texto, áudio ou visual que, falsamente, pareçam ser autênticos ou verdadeiros e que apresentam representações de pessoas que parecem dizer ou fazem coisas que não disseram ou fizeram, sem o seu consentimento («deep fake», ou falsificação profunda), devem divulgar de forma adequada, atempada, clara e visível que o conteúdo foi gerado ou manipulado artificialmente, bem como, sempre que possível, o nome da pessoa singular ou coletiva que o gerou ou manipulou. Por divulgação, entende-se a rotulagem do conteúdo, de uma forma claramente visível para o seu destinatário, informando que este não é autêntico. Para rotular o conteúdo, os utilizadores devem ter em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações pertinentes. |
Alteração 91
Proposta de regulamento
Artigo 52 – n.º 3 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
Contudo, o primeiro parágrafo não se aplica se a utilização for legalmente autorizada para detetar, prevenir, investigar e reprimir infrações penais ou for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. |
3-A. O n.º 3 não se aplica se a utilização de um sistema de IA que gera ou manipula texto, conteúdos áudio ou visuais for legalmente autorizada ou se for necessária para exercer o direito à liberdade de expressão e o direito à liberdade das artes e das ciências consagrados na Carta dos Direitos Fundamentais da UE, desde que salvaguarde adequadamente os direitos e as liberdades de terceiros. Se o conteúdo fizer parte de uma obra ou de um programa aparentemente criativo, satírico, artístico ou fictício, de visuais de jogos de vídeo e obras ou programas análogos, as obrigações de transparência estabelecidas no n.º 3 limitam-se à divulgação da existência desses conteúdos gerados ou manipulados de forma adequada, clara e visível, que não prejudique a exibição da obra e a divulgação dos direitos de autor aplicáveis, se for caso disso. Também não deve impedir as autoridades policiais de utilizarem sistemas de IA concebidos para detetar falsificações profundas e prevenir, investigar e reprimir infrações penais relacionadas com a sua utilização. |
Alteração 92
Proposta de regulamento
Artigo 52 – n.º 3-B (novo)
|
|
Texto da Comissão |
Alteração |
|
3-B. As informações mencionadas nos n.º 1 a 3 são facultadas às pessoas singulares, o mais tardar no momento da primeira interação ou exposição. Devem ser acessíveis a pessoas vulneráveis, tais como pessoas com deficiência ou crianças, completas, se for caso disso e adequado, com procedimentos de intervenção ou sinalização para a pessoa singular exposta, tendo em conta o estado da técnica geralmente reconhecido e as normas harmonizadas e especificações comuns pertinentes. |
Alteração 93
Proposta de regulamento
Artigo 56 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. É criado um Comité Europeu para a Inteligência Artificial (adiante designado por «Comité»). |
1. É criado um Comité Europeu para a Inteligência Artificial (adiante designado por «Comité») enquanto organismo independente dotado de personalidade jurídica para promover um mercado interno da inteligência artificial fiável, eficaz e competitivo. O Comité é organizado de forma a garantir a independência, a objetividade e a imparcialidade das suas atividades e dispõe de um secretariado, de um mandato sólido, bem como de recursos suficientes e de pessoal qualificado à sua disposição para prestar assistência no desempenho adequado das suas funções, previstas no artigo 58.º. |
Alteração 94
Proposta de regulamento
Artigo 56 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. O Comité presta aconselhamento e assistência à Comissão com vista a: |
2. O Comité presta aconselhamento e assistência à Comissão e aos Estados-Membros, aquando da aplicação do direito da União no que respeita à inteligência artificial, e coopera com os fornecedores e utilizadores de sistemas de IA, a fim de: |
Alteração 95
Proposta de regulamento
Artigo 56 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Contribuir para a cooperação eficaz entre as autoridades nacionais de controlo e a Comissão no tocante às matérias abrangidas pelo presente regulamento; |
a) Promover e apoiar a cooperação eficaz entre as autoridades nacionais de controlo e a Comissão; |
Alteração 96
Proposta de regulamento
Artigo 56 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Auxiliar as autoridades nacionais de controlo e a Comissão a garantirem a aplicação coerente do presente regulamento. |
c) Auxiliar a Comissão, as autoridades nacionais de controlo e outras autoridades competentes a garantirem a aplicação coerente do presente regulamento, nomeadamente em consonância com o mecanismo de controlo da coerência a que se refere o artigo 59.º-A, n.º 3. |
Alteração 97
Proposta de regulamento
Artigo 56 – n.º 2 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Ajudar os fornecedores e os utilizadores de sistemas de IA a cumprirem os requisitos do presente Regulamento, bem como os definidos em legislação atual e futura da União, em particular as PME e as empresas em fase de arranque; |
Alteração 98
Proposta de regulamento
Artigo 1 – n.º 2 – alínea c-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-B) Assegurar a supervisão específica e o acompanhamento dos fornecedores de sistemas de IA de finalidade geral, assim como um diálogo regular com os mesmos sobre a sua conformidade com o presente regulamento. Qualquer reunião desta natureza está aberta à participação e aos contributos das autoridades nacionais de controlo, dos organismos notificados e das autoridades de fiscalização do mercado; |
Alteração 99
Proposta de regulamento
Artigo 56 – n.º 2 – alínea c-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-C) Propor alterações aos anexos I e III. |
Alteração 100
Proposta de regulamento
Artigo 56 – n.º 2-A (novo)
|
|
Texto da Comissão |
Alteração |
|
2-A. O Comité funciona como ponto de referência para aconselhamento e conhecimentos especializados para as instituições e os órgãos, os serviços e as agências da União, bem como para outras partes interessadas pertinentes sobre questões relacionadas com os dados e a inteligência artificial. |
Alteração 101
Proposta de regulamento
Artigo 57 – título
|
|
Texto da Comissão |
Alteração |
Estrutura do Comité |
Mandato e estrutura do Comité |
Alteração 102
Proposta de regulamento
Artigo 57 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. A composição do Comité respeita o equilíbrio entre homens e mulheres. |
|
A Autoridade Europeia para a Proteção de Dados, o presidente da Agência dos Direitos Fundamentais da UE, o diretor executivo da Agência da UE para a Cibersegurança, o presidente do Grupo de Peritos de Alto Nível em Inteligência Artificial, o diretor-geral do Centro Comum de Investigação e os presidentes do Comité Europeu de Normalização, do Comité Europeu de Normalização Eletrotécnica e do Instituto Europeu de Normalização das Telecomunicações são convidados como observadores permanentes com direito ao uso da palavra mas sem direito de voto. |
Alteração 103
Proposta de regulamento
Artigo 57 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O Comité adota o seu regulamento interno por maioria simples dos membros que o compõem, após a autorização da Comissão. O regulamento interno deve conter igualmente os aspetos operacionais relacionados com o exercício das funções do Comité elencadas no artigo 58.º. O Comité pode constituir subgrupos consoante adequado para efeitos da análise de questões específicas. |
2. O Comité adota o seu regulamento interno por maioria simples dos membros que o compõem, com a assistência do seu secretariado. O regulamento interno deve conter igualmente os aspetos operacionais relacionados com o exercício das funções do Comité elencadas no artigo 58.º. O Comité pode constituir subgrupos permanentes ou temporários consoante adequado para efeitos da análise de questões específicas. |
Alteração 104
Proposta de regulamento
Artigo 57 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O Comité é presidido pela Comissão. A Comissão convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. A Comissão presta apoio administrativo e analítico às atividades do Comité nos termos com o presente regulamento. |
3. O Comité é copresidido pela Comissão e por um representante escolhido de entre os delegados dos Estados-Membros. O secretariado do Comité convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. O secretariado do Comité presta apoio administrativo e analítico às atividades do Comité nos termos com o presente regulamento. |
Alteração 105
Proposta de regulamento
Artigo 57 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
4. O Comité convida regularmente peritos externos – em especial de organizações que representam os interesses dos fornecedores e dos utilizadores dos sistemas de IA, PME e empresas em fase de arranque, organizações da sociedade civil, sindicatos, representantes das pessoas afetadas, académicos e investigadores, instalações de ensaio e experimentação e organizações de normalização – para participarem nas suas reuniões, a fim de assegurar a responsabilização e uma participação adequada de intervenientes externos. A ordem de trabalhos e as atas das suas reuniões são publicadas em linha. A Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
Alteração 106
Proposta de regulamento
Artigo 57 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. Sem prejuízo do n.º 4, o secretariado do Comité organiza quatro reuniões suplementares entre o Comité e o Grupo de Peritos de Alto Nível em Inteligência Artificial para lhes permitir partilhar os seus conhecimentos práticos e técnicos em cada trimestre de cada ano. |
Alteração 107
Proposta de regulamento
Artigo 58 – parágrafo 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
Ao prestar aconselhamento e assistência à Comissão nos termos do artigo 56.º, n.º 2, o Comité deve em particular: |
Ao prestar aconselhamento e assistência à Comissão e aos Estados-Membros nos termos do artigo 56.º, n.º 2, o Comité deve, em particular: |
Alteração 108
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Recolher e partilhar conhecimentos técnicos e boas práticas entre Estados‑Membros; |
a) Recolher e partilhar conhecimentos técnicos e boas práticas entre Estados‑Membros, nomeadamente promovendo iniciativas de sensibilização e literacia sobre a inteligência artificial e o presente regulamento; |
Alteração 109
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea a-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
a-A) Promover e apoiar a cooperação entre as autoridades nacionais de controlo e a Comissão; |
Alteração 110
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Contribuir para uniformizar práticas administrativas nos Estados-Membros, nomeadamente no respeitante ao funcionamento dos ambientes de testagem da regulamentação a que se refere o artigo 53.º; |
b) Contribuir para uniformizar práticas administrativas nos Estados-Membros, nomeadamente no respeitante à avaliação, à criação, à gestão – na aceção de promover a cooperação e garantir a coerência entre os ambientes de testagem da regulamentação – e ao funcionamento dos ambientes de testagem da regulamentação a que se refere o artigo 53.º; |
Alteração 111
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – parte introdutória
|
|
Texto da Comissão |
Alteração |
c) Emitir pareceres, recomendações ou contribuições escritas sobre matérias relacionadas com a aplicação do presente regulamento, em especial: |
c) Emitir orientações, recomendações ou contribuições escritas sobre matérias relacionadas com a aplicação do presente regulamento, em especial: |
Alteração 112
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea ii-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
ii-A) sobre as disposições relacionadas com o acompanhamento pós‑comercialização a que se refere o artigo 61.º, |
Alteração 113
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea iii-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-A) sobre a necessidade de alteração de cada um dos anexos mencionados no artigo 73.º, bem como de todas as outras disposições do presente regulamento passíveis de serem alteradas pela Comissão, à luz das provas disponíveis; |
Alteração 114
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea iii-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-B) sobre as atividades e decisões dos Estados-Membros relativas ao acompanhamento pós-comercialização, à partilha de informações e â fiscalização do mercado a que se refere o título VIII; |
Alteração 115
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea iii-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-C) sobre critérios comuns para que os operadores do mercado e as autoridades competentes compreendam da mesma forma conceitos como o «estado da técnica geralmente reconhecido» a que se refere o artigo 9.º, n.º 3, o artigo 13.º, n.º 1, o artigo 14.º, n.º 4, o artigo 23.º-A, n.º 3, ou o artigo 52.º, n.º 3-A; os «riscos previsíveis» a que se refere o artigo 9.º, n.º 2, alínea a); e a «utilização indevida previsível» a que se referem o artigo 3.º, ponto 13, o artigo 9.º, n.º 2, alínea b), o artigo 9.º, n.º 4, o artigo 13.º, n.º 3, alínea b), subalínea iii), o artigo 14.º, n.º 2, e o artigo 23.º-A, n.º 3-C; |
Alteração 116
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea iii-D) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-D) sobre a verificação do alinhamento com os atos jurídicos enumerados no anexo II, incluindo matérias relacionadas com a aplicação desses atos; |
Alteração 117
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c) – subalínea iii-E) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii-E) sobre o respeito dos princípios gerais aplicáveis a todos os sistemas de IA referidos no artigo 4.º-A; |
Alteração 118
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-A) Realizar revisões e análises anuais das reclamações enviadas para as autoridades nacionais de controlo e das conclusões por estas retiradas, das notificações de incidentes graves e anomalias mencionadas no artigo 62.º e do novo registo na base de dados da UE mencionada no artigo 60.º, para identificar tendências e potenciais questões emergentes que ameacem a futura saúde, segurança e direitos fundamentais dos cidadãos e que não sejam devidamente abordadas pelo presente regulamento; |
Alteração 119
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-B) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-B) Realizar uma exploração horizontal semestral e exercícios de prospetiva para extrapolar o impacto que a evolução científica, as tendências e questões emergentes podem ter na União; |
Alteração 120
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-C) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-C) Publicar anualmente recomendações à Comissão, nomeadamente sobre a categorização das práticas proibidas, os sistemas de risco elevado e os códigos de conduta para sistemas de IA que não sejam classificados como de risco elevado; |
Alteração 121
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-D) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-D) Incentivar e facilitar a elaboração de códigos de conduta, conforme referido no artigo 69.º; |
Alteração 122
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-E) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-E) Coordenar as autoridades nacionais competentes entre si e garantir o respeito do mecanismo de controlo da coerência previsto no artigo 59.º-A, n.º 3, sobretudo para todos os principais casos transfronteiriços; |
Alteração 123
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-F) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-F) Adotar decisões vinculativas para as autoridades nacionais de controlo, no caso de o mecanismo de controlo da coerência não ser capaz de resolver o conflito entre as autoridades nacionais de controlo, como é esclarecido no artigo 59.º-A, n.º 6; |
Alteração 124
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-G) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-G) Fornecer material de orientação aos fornecedores e utilizadores relativamente aos requisitos estabelecidos no presente regulamento. Em particular, deve formular orientações: |
|
i) para a avaliação técnica da IA de confiança a que se refere o artigo 4.º-A, |
|
ii) para os métodos de realização da avaliação da conformidade baseada no controlo interno a que se refere o artigo 43.º, |
|
iii) para facilitar o cumprimento dos procedimentos de comunicação de incidentes graves ou anomalias a que se refere o artigo 62.º, |
|
iv) sobre quaisquer outros procedimentos específicos a realizar pelos fornecedores e utilizadores no cumprimento do presente regulamento, em especial os relativos à documentação a entregar aos organismos notificados e aos métodos para fornecer outras informações pertinentes às autoridades. |
Alteração 125
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-H) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-H) Fornecer orientações específicas às PME e às empresas em fase de arranque sobre o cumprimento das obrigações estabelecidas no presente regulamento; |
Alteração 126
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-I) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-I) Sensibilizar e fornecer material de orientação aos fornecedores e utilizadores sobre o cumprimento do requisito de instituir instrumentos e medidas para garantir um nível suficiente de literacia em matéria de IA em conformidade com o artigo 4.º-B; |
Alteração 127
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-J) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-J) Contribuir para os esforços da União de cooperação com países terceiros e organizações internacionais com vista à promoção de uma abordagem mundial comum em relação à IA de confiança; |
Alteração 128
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-K) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-K) Emitir relatórios anuais sobre a aplicação do presente regulamento, que devem incluir uma avaliação do seu impacto nos operadores económicos; |
Alteração 129
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c-L) (nova)
|
|
Texto da Comissão |
Alteração |
|
c-L) Fornecer orientações sobre a governação da investigação e desenvolvimento. |
Alteração 130
Proposta de regulamento
Artigo 59 – título
|
|
Texto da Comissão |
Alteração |
Designação das autoridades nacionais competentes |
Designação das autoridades nacionais de controlo |
Alteração 131
Proposta de regulamento
Artigo 59 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Cada Estado-Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
1. Cada Estado-Membro deve criar ou designar uma autoridade nacional de controlo, que deve estar organizada de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
Alteração 132
Proposta de regulamento
Artigo 59 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Cada Estado-Membro deve designar uma autoridade nacional de controlo entre as autoridades nacionais competentes. A autoridade nacional de controlo deve atuar enquanto autoridade notificadora e autoridade de fiscalização do mercado, salvo se, por razões organizacionais e administrativas, o Estado-Membro tiver de designar mais do que uma autoridade. |
2. A autoridade nacional de controlo deve ser responsável por assegurar a aplicação e execução do presente regulamento. No que diz respeito aos sistemas de IA de risco elevado relacionados com produtos aos quais se apliquem atos jurídicos enunciados no anexo II, secção A, as autoridades competentes designadas ao abrigo desses atos jurídicos devem continuar a liderar os procedimentos administrativos. No entanto, na medida em que um caso envolva aspetos abrangidos pelo presente regulamento, as autoridades competentes devem ser vinculadas pelas medidas emitidas pela autoridade nacional de controlo designada nos termos do presente regulamento. A autoridade nacional de controlo deve também atuar enquanto autoridade notificadora e autoridade de fiscalização do mercado. |
Alteração 133
Proposta de regulamento
Artigo 59 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os Estados-Membros devem informar a Comissão da designação ou designações e, se for caso disso, dos motivos que os levaram a designar mais do que uma autoridade. |
3. A autoridade nacional competente de cada Estado-Membro deve ser a autoridade principal, assegurar a devida coordenação e atuar como ponto de contacto único para o presente regulamento. Os Estados-Membros devem informar a Comissão das suas designações. Além disso, o ponto de contacto central de cada Estado-Membro deve poder ser contactado por meios de comunicação eletrónicos. |
Alteração 134
Proposta de regulamento
Artigo 59 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os Estados-Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. |
4. Os Estados-Membros devem assegurar que a autoridade nacional de controlo disponha dos recursos financeiros e humanos adequados para exercer as funções que lhe incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais de controlo devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados, da proteção de dados e da computação de dados, da cibersegurança, do direito da concorrência, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. |
Alteração 135
Proposta de regulamento
Artigo 59 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. A autoridade nacional competente devem satisfazer os requisitos mínimos de cibersegurança estabelecidos para as entidades da administração pública identificadas como operadores de serviços essenciais nos termos da Diretiva (…) relativa a medidas destinadas a garantir um elevado nível comum de cibersegurança na União e que revoga a Diretiva (UE) 2016/1148. |
Alteração 136
Proposta de regulamento
Artigo 59 – n.º 4-B (novo)
|
|
Texto da Comissão |
Alteração |
|
4-B. Todas as informações e documentação que a autoridade nacional de controlo obtenha nos termos das disposições do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 137
Proposta de regulamento
Artigo 59 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor das autoridades nacionais competentes, incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Comité para apreciação e eventuais recomendações. |
5. Os Estados-Membros devem apresentar anualmente relatórios à Comissão sobre a situação dos recursos financeiros e humanos ao dispor da autoridade nacional de controlo, incluindo uma avaliação da sua adequação. A Comissão transmite essas informações ao Comité para apreciação e eventuais recomendações. |
Alteração 138
Proposta de regulamento
Artigo 59 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão facilita o intercâmbio de experiências entre as autoridades nacionais competentes. |
6. A Comissão e o Comité facilitam o intercâmbio de experiências entre as autoridades nacionais de controlo. |
Alteração 139
Proposta de regulamento
Artigo 59 – n.º 7
|
|
Texto da Comissão |
Alteração |
7. As autoridades nacionais competentes podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente aos fornecedores de pequena dimensão. Sempre que as autoridades nacionais competentes pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as autoridades nacionais competentes ao abrigo dessa legislação da União devem ser consultadas, conforme adequado. Os Estados-Membros também podem criar um ponto de contacto central para a comunicação com os operadores. |
7. As autoridades nacionais de controlo podem fornecer orientações e prestar aconselhamento sobre a execução do presente regulamento, nomeadamente às PME e empresas em fase de arranque, desde que tal não contrarie as orientações e o aconselhamento do Comité ou da Comissão. Sempre que as autoridades nacionais de controlo pretendam fornecer orientações e prestar aconselhamento em relação a um sistema de IA em domínios abrangidos por outra legislação da União, as autoridades nacionais competentes ao abrigo dessa legislação da União devem ser consultadas, conforme adequado. |
Alteração 140
Proposta de regulamento
Artigo 59 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo dos mesmos. |
8. Sempre que as instituições, órgãos e organismos da União se insiram no âmbito do presente regulamento, a Autoridade Europeia para a Proteção de Dados deve atuar como a autoridade competente para o controlo e a coordenação dos mesmos. |
Alteração 141
Proposta de regulamento
Artigo 59-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 59.º-A |
|
Mecanismo de controlo da coerência para casos transfronteiriços |
|
1. As autoridades nacionais de controlo devem desempenhar as atribuições e exercer os poderes que lhes são conferidos pelo presente regulamento no território do seu próprio Estado‑Membro. |
|
2. Verificando-se um caso transfronteiriço que envolva duas ou mais autoridades nacionais de controlo, considera-se que a autoridade nacional de controlo do Estado-Membro onde o local de administração central na União do fornecedor ou do utilizador está estabelecido ou em que o mandatário é nomeado é competente para atuar como autoridade nacional de controlo principal num caso transfronteiriço que envolva um sistema de IA. |
|
3. No caso descrito no n.º 2, as autoridades nacionais de controlo em causa devem cooperar, trocar oportunamente todas as informações pertinentes entre si, prestar assistência mútua e executar operações conjuntas. As autoridades nacionais de controlo devem cooperar para chegar a um consenso. |
|
4. Em caso de desacordo grave entre duas ou mais autoridades nacionais de controlo, a autoridade nacional de controlo principal notifica o Comité e comunica-lhe sem demora todas as informações pertinentes relacionadas com o caso. |
|
5. No prazo de três meses a contar da notificação a que se refere o n.º 4, o Comité profere uma decisão vinculativa dirigida às autoridades nacionais de controlo. |
Alteração 142
Proposta de regulamento
Artigo 62 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Essa notificação deve ser efetuada imediatamente após o fornecedor ter determinado uma relação causal entre o sistema de IA e o incidente ou anomalia ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 15 dias após o fornecedor ter conhecimento do incidente grave ou da anomalia. |
Essa notificação deve ser efetuada sem demora injustificada após o fornecedor ter determinado uma relação causal entre o sistema de IA e o incidente grave ou anomalia ou a probabilidade razoável dessa relação e, em qualquer caso, o mais tardar 72 horas após os fornecedores terem conhecimento do incidente grave ou da anomalia. |
Alteração 143
Proposta de regulamento
Artigo 62 – n.º 1 – parágrafo 1-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Não é exigida qualquer comunicação nos termos do presente artigo se os prestadores de serviços também tiverem de comunicar incidentes graves ou anomalias para cumprir as obrigações estabelecidas por outros atos do direito da União. Nesse caso, as autoridades competentes nos termos desses atos do direito da União devem encaminhar a informação recebida para a autoridade nacional de controlo designada nos termos do presente regulamento. |
Alteração 144
Proposta de regulamento
Artigo 69 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. A Comissão e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas. |
1. A Comissão, o Comité e os Estados-Membros devem incentivar e facilitar a elaboração de códigos de conduta – designadamente quando forem elaborados para demonstrar a forma como os sistemas de IA respeitam os princípios definidos no artigo 4.º-A, pelo que podem ser considerados de confiança – destinados a fomentar a aplicação voluntária dos requisitos estabelecidos no título III, capítulo 2, a sistemas de IA que não sejam sistemas de IA de risco elevado, com base em especificações técnicas e soluções que configurem meios adequados de assegurar a conformidade com os referidos requisitos atendendo à finalidade prevista dos sistemas. |
Alteração 145
Proposta de regulamento
Artigo 69 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A Comissão e o Comité devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária a sistemas de IA de requisitos relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento, com base em objetivos claros e indicadores-chave de desempenho que permitam medir a consecução desses objetivos. |
2. Os códigos de conduta destinados a fomentar o cumprimento voluntário dos princípios subjacentes a sistemas de IA de confiança devem, em especial: |
|
a) Visar dotar o seu pessoal e outras pessoas envolvidas no funcionamento e utilização de sistemas de IA de um nível de literacia em matéria de IA suficiente para respeitar esses princípios; |
|
b) Avaliar em que medida os seus sistemas de IA podem afetar pessoas ou grupos de pessoas vulneráveis – incluindo crianças, idosos, migrantes e pessoas com deficiência – ou se podem ser adotadas medidas adicionais para aumentar a acessibilidade ou apoiar doutra forma tais pessoas ou grupos de pessoas; |
|
c) Ponderar de que forma a utilização dos seus sistemas de IA pode ter impacto ou aumentar a diversidade, o equilíbrio de género e a igualdade; |
|
d) Considerar se os seus sistemas de IA podem ser utilizados dum modo passível de, direta ou indiretamente, reforçar residual ou substancialmente enviesamentos ou desigualdades existentes; |
|
e) Examinar a necessidade e a pertinência de criar equipas de desenvolvimento diversas, com vista a garantir uma conceção inclusiva dos seus sistemas; |
|
f) Ponderar cuidadosamente se os seus sistemas podem ter um impacto social negativo, nomeadamente no que toca às instituições políticas e aos processos democráticos; |
|
g) Avaliar de que forma os sistemas de IA podem contribuir para a sustentabilidade ambiental e, em especial, os compromissos da União ao abrigo do Pacto Ecológico Europeu e da Declaração Europeia sobre os Direitos e Princípios Digitais. |
Alteração 146
Proposta de regulamento
Artigo 69 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas, incluindo investigadores científicos, e das respetivas organizações representativas, em especial, os sindicatos e as organizações de consumidores. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. Os prestadores que adotem códigos de conduta designam, pelo menos, uma pessoa singular responsável pelo controlo interno. |
Alteração 147
Proposta de regulamento
Artigo 69 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. A Comissão e o Comité devem ter em conta as necessidades e os interesses específicos dos fornecedores de pequena dimensão e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta. |
4. A Comissão e o Comité devem ter em conta as necessidades e os interesses específicos das PME e das empresas em fase de arranque quando incentivam e facilitam a elaboração de códigos de conduta. |
Alteração 148
Proposta de regulamento
Artigo 69-A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 69.º-A |
|
Direito de apresentar reclamação a uma autoridade de controlo |
|
1. Sem prejuízo de qualquer outra via de recurso administrativo ou judicial, todas as pessoas singulares ou coletivas têm direito a apresentar reclamação a uma autoridade de controlo – em especial no Estado-Membro da sua residência habitual, do seu local de trabalho ou do local onde foi alegadamente praticada a infração – se a pessoa alegada ou coletiva considerar que a sua saúde, a sua segurança, os seus direitos fundamentais, o seu direito a uma explicação ou quaisquer outros direitos decorrentes das obrigações estabelecidas no presente regulamento foram violados pelo fornecedor ou utilizador dum sistema de IA abrangido pelo âmbito de aplicação do presente regulamento. A referida reclamação pode ser apresentada através de uma ação coletiva para proteção dos interesses coletivos dos consumidores, como previsto na Diretiva (UE) 2020/1828. |
|
2. As pessoas singulares ou coletivas têm o direito de serem ouvidas no âmbito do procedimento de tratamento da reclamação e no contexto de qualquer investigação realizada pela autoridade nacional de controlo em resultado da reclamação que apresentaram. |
|
3. A autoridade nacional de controlo junto da qual a reclamação foi apresentada deve informar os autores da reclamação dos progressos e do resultado da sua reclamação. Nomeadamente, a autoridade nacional de controlo toma todas as medidas necessárias para dar seguimento às reclamações que recebe e, no prazo de três meses após a receção de uma reclamação, dar ao autor da reclamação uma resposta preliminar a indicar as medidas que tencionam tomar e as etapas seguintes do procedimento, caso existam. |
|
4. A autoridade nacional de controlo toma uma decisão sobre a reclamação e informa o autor da reclamação sobre o progresso e o resultado da mesma, nomeadamente sobre a possibilidade de recurso judicial nos termos do artigo 68.º‑B, sem qualquer demora e o mais tardar seis meses após a data de apresentação da reclamação. |
Alteração 149
Proposta de regulamento
Artigo 69-B (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 69.º-B |
|
Direito à ação judicial contra uma autoridade nacional de controlo |
|
1. Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, cada pessoa singular ou coletiva tem direito a uma ação judicial ou extrajudicial efetiva – incluindo reparação, substituição, redução do preço, rescisão do contrato, reembolso do preço pago ou indemnização por danos materiais e imateriais – contra as decisões juridicamente vinculativas das autoridades nacionais de controlo que lhes digam respeito e que violem os seus direitos. |
|
2. Sem prejuízo de qualquer outra via de recurso administrativo ou extrajudicial, cada pessoa afetada tem direito à ação judicial nos casos em que a autoridade nacional de controlo competente não trate uma reclamação, não informe o autor da reclamação sobre os progressos ou o resultado preliminar da reclamação apresentada no prazo de três meses, nos termos do artigo 68.º-A, n.º 3, ou não cumpra a sua obrigação de tomar uma decisão final relativamente à reclamação no prazo de seis meses, em conformidade com o artigo 68.º-A, n.º 3, ou as respetivas obrigações previstas no artigo 65.º. |
|
3. Os recursos contra as autoridades de controlo são interpostos nos tribunais do Estado-Membro em cujo território se encontrem estabelecidas. |
Alteração 150
Proposta de regulamento
Artigo 69-C (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 69.º-C |
|
Direito a uma explicação |
|
1. As pessoas afetadas sujeitas a uma decisão tomada por um fornecedor ou utilizador, com base num resultado dum sistema de IA abrangido pelo âmbito de aplicação do presente regulamento, que produza efeitos jurídicos que considerem ter um impacto negativo na sua saúde, segurança, direitos fundamentais, bem-estar socioeconómico ou quaisquer outros direitos decorrentes das obrigações estabelecidas no presente regulamento, devem receber do fornecedor ou do utilizador, no momento em que a decisão é comunicada, uma explicação clara e significativa, nos termos do artigo 13.º, n.º 1, sobre o papel do sistema de IA no processo de tomada de decisão, os principais parâmetros da decisão tomada e os dados de entrada conexos. |
|
2. O n.º 1 não é aplicável à utilização de sistemas de IA: |
|
a) Para os quais exceções ou restrições à obrigação prevista no n.º 1 decorram da legislação da União ou nacional, que estabelece outras salvaguardas adequadas para os direitos, liberdades e interesses legítimos das pessoas afetadas; ou |
|
b) Nos casos em que a pessoa afetada tenha dado o seu consentimento livre, explícito, específico e informado para não receber uma explicação. A pessoa afetada tem o direito de retirar, a qualquer momento, o seu consentimento em não receber qualquer explicação. Antes de dar o seu consentimento, a pessoa afetada é informada desse facto. Deve ser tão fácil retirar o consentimento quanto dá-lo. |
Alteração 151
Proposta de regulamento
Artigo 69-D (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 69.º-D |
|
Ações coletivas |
|
1. O texto seguinte é aditado ao anexo I da Diretiva (UE) 2020/1828 relativa a ações coletivas para a proteção dos interesses coletivos dos consumidores: |
|
«Regulamento xxxx/xxxx do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União». |
Alteração 152
Proposta de regulamento
TÍTULO X – título
|
|
Texto da Comissão |
Alteração |
CONFIDENCIALIDADE E SANÇÕES |
CONFIDENCIALIDADE, VIAS DE RECURSO E SANÇÕES |
Alteração 153
Proposta de regulamento
Artigo 84 – n.º 4-A (novo)
|
|
Texto da Comissão |
Alteração |
|
4-A. No prazo de [três anos a contar da data de aplicação do presente regulamento a que se refere o artigo 85.º, n.º 2], a Comissão avalia a eficácia do Comité no exercício das suas funções e avalia se uma agência da UE seria melhor para assegurar uma aplicação eficaz e harmonizada do presente regulamento. |
Alteração 154
Proposta de regulamento
Anexo VIII – ponto 5-A (novo)
|
|
Texto da Comissão |
Alteração |
|
5-A. O resultado da avaliação da fiabilidade da tecnologia; |
PROCESSO DA COMISSÃO ENCARREGADA DE EMITIR PARECER
Título |
Regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e alteração de determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) |
|||
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Parecer emitido por Data de comunicação em sessão |
JURI 7.6.2021 |
|||
Comissões associadas - data de comunicação em sessão |
16.12.2021 |
|||
Relator(a) de parecer Data de designação |
Axel Voss 10.1.2022 |
|||
Artigo 58.º – Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
26.1.2022 |
15.3.2022 |
28.3.2022 |
|
Data de aprovação |
5.9.2022 |
|
|
|
Resultado da votação final |
+: –: 0: |
17 1 0 |
VOTAÇÃO NOMINAL FINAL NA COMISSÃO ENCARREGADA DE EMITIR PARECER
17 |
+ |
ID |
Jean-François Jalkh |
NI |
Sabrina Pignedoli |
PPE |
Pascal Arimont, Angelika Niebler, Luisa Regimenti, Axel Voss, Elissavet Vozemberg-Vrionidi, Marion Walsmann, Javier Zarzalejos |
RENEW |
Ilana Cicurel, Pascal Durand, Karen Melchior, Adrián Vázquez Lázara |
S&D |
René Repasi, Tiemo Wölken, Lara Wolters |
VERTS/ALE |
Heidi Hautala |
1 |
- |
THE LEFT |
Cornelia Ernst |
0 |
0 |
|
|
Legenda dos símbolos utilizados:
+ : votos a favor
- : votos contra
0 : abstenções
PARECER DA COMISSÃO DO AMBIENTE, DA SAÚDE PÚBLICA E DA SEGURANÇA ALIMENTAR (22.4.2022)
dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
Relatora de parecer: Susana Solís Pérez
JUSTIFICAÇÃO SUCINTA
A proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (a seguir designado por «Regulamento Inteligência Artificial») é parte integrante do plano geral de impulsionar a Europa na era digital e de atingir os objetivos ambientais e climáticos europeus. Tal decorre do facto de a inteligência artificial (IA) desempenhar atualmente um papel importante em todos os aspetos das atividades quotidianas europeias.
Os sistemas de IA estarão cada vez mais integrados em produtos e serviços, exigindo, assim, uma abordagem legislativa horizontal, conforme estabelecido no Regulamento Inteligência Artificial. A relatora concorda plenamente com esta premissa, pois considera que é imperativo estabelecer regras comuns para proporcionar uma abordagem transversal a todos os setores, nomeadamente o setor da saúde. Ao fazê‑lo, a União Europeia tem a oportunidade de liderar e definir as normas em matéria de IA a nível mundial, tal como já fez com a proteção de dados por meio do Regulamento Geral sobre a Proteção de Dados (RGPD). A UE pode também tornar‑se líder mundial em nichos setoriais que exigem uma perspetiva fortemente orientada para o futuro, como a regulamentação dos direitos neurológicos.
De uma forma geral, o Regulamento Inteligência Artificial deve preservar os valores europeus, facilitando a repartição dos benefícios da IA pela sociedade, protegendo dos riscos as pessoas, as empresas e o ambiente, estimulando, ao mesmo tempo, a inovação e o emprego e colocando a Europa numa posição de liderança neste domínio.
Neste contexto, a relatora deseja realçar a importância dos ambientes de testagem da regulamentação em determinados domínios (por exemplo, saúde) e a forma como se pode abranger outros domínios, como hospitais, autoridades de saúde e centros de investigação, a fim de reforçar e expandir a posição de liderança do sistema de saúde em todos os Estados‑Membros e a nível da UE. Saúde é riqueza. Ao introduzir a IA na saúde, utilizando dados de saúde interoperáveis, poderemos continuar a aumentar esta riqueza dos sistemas de saúde para a sociedade em geral. A relatora salienta igualmente as potenciais implicações dos sistemas de IA na saúde mental.
A relatora do presente parecer considera que a proposta não prevê de forma suficiente os riscos da ausência de uma abordagem regulamentar comum e coerente.
Enquanto iniciativa legislativa horizontal, a proposta de Regulamento Inteligência Artificial deverá cruzar‑se com vários regulamentos atualmente em vigor (por exemplo, o RGPD ou o Regulamento Dispositivos Médicos) e com várias iniciativas legislativas suscetíveis de se cruzarem no futuro, nomeadamente o espaço europeu de dados de saúde. Todas estas iniciativas devem estar alinhadas com o Regulamento Inteligência Artificial, a fim de garantir uma abordagem regulamentar comum e coerente, e evitando assim a duplicação de funções ou a descoordenação entre organismos e autoridades a nível da UE e dos Estados‑Membros.
A relatora do presente parecer está preocupada com o facto de o Regulamento Inteligência Artificial não garantir uma proteção suficiente do ambiente.
O Eurobarómetro Especial n.º 513 sobre as alterações climáticas, publicado em 2021, mostra que fazer face aos desafios relacionados com o clima e o ambiente é uma das principais preocupações dos cidadãos europeus. Por conseguinte, a relatora propõe que o Regulamento Inteligência Artificial inclua o ambiente nos domínios que requerem um elevado nível de proteção. Para o efeito, o ambiente foi incluído em todos os considerandos e artigos, juntamente com a saúde, a segurança e a proteção dos direitos fundamentais. Tal implicará a classificação de «IA de risco elevado» de todos os sistemas passíveis de ter grandes consequências negativas para o ambiente. Ao mesmo tempo, a relatora salientou o direito a mecanismos de reparação adequados em caso de impactos ambientais negativos, conforme estabelecido na Convenção de Aarhus, e definiu o princípio de «não prejudicar significativamente», conforme estabelecido no Regulamento Taxonomia, como um limite para garantir que os sistemas de IA cumprem o elevado nível de normas e direitos ambientais da UE.
A relatora do presente parecer considera que o Regulamento Inteligência Artificial deve não só abranger os utilizadores como também alargar o seu âmbito de aplicação aos destinatários finais.
Muitas das aplicações mencionadas na proposta de Regulamento Inteligência Artificial envolverão não só os utilizadores, mas também os destinatários finais. No caso das aplicações nos cuidados de saúde, esta distinção é fundamental, pois há uma clara diferenciação entre a utilização prevista e as capacidades dos pacientes e médicos. Por conseguinte, o projeto de relatório passa a incluir uma nova definição de destinatários finais e concede‑lhes o grau adequado de transparência e de prestação de informações específicas.
ALTERAÇÕES
A Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar insta a Comissão do Mercado Interno e da Proteção dos Consumidores, competente quanto à matéria de fundo, a ter em conta as seguintes alterações:
Alteração 1
Proposta de regulamento
Considerando 1
|
|
Texto da Comissão |
Alteração |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados‑Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para a conceção, o desenvolvimento, a comercialização e a utilização da inteligência artificial e da inteligência artificial sustentável e ecológica em conformidade com as prioridades e os valores da União, minimizando, simultaneamente, o risco de efeitos adversos e discriminatórios nas pessoas e de efeitos adversos no ambiente. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da biodiversidade, do clima e do ambiente, da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados‑Membros imponham restrições à conceção, ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
Alteração 2
Proposta de regulamento
Considerando 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(1‑A) O presente regulamento deve servir como base para promover a saúde e o bem‑estar, prevenir as doenças e fomentar um ambiente favorável a estilos de vida mais saudáveis, de uma forma sustentável e neutra em termos de clima, e, em especial, facilitar a realização dos Objetivos de Desenvolvimento Sustentável das Nações Unidas, do Acordo de Paris e da transição para emissões líquidas nulas de gases com efeito de estufa até 2050 em diferentes setores. Os Estados‑Membros podem estabelecer requisitos adicionais além dos estabelecidos no presente regulamento, desde que tal se justifique por razões de interesse público, de proteção de direitos legais, de proteção do clima, do ambiente e da biodiversidade. |
Alteração 3
Proposta de regulamento
Considerando 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(1‑B) O presente regulamento deve preservar os valores da União, promovendo a repartição dos benefícios da inteligência artificial pela sociedade, protegendo as pessoas, as empresas e o ambiente dos riscos, estimulando, ao mesmo tempo, a inovação e o emprego e colocando a Europa numa posição de liderança neste domínio. |
Alteração 4
Proposta de regulamento
Considerando 2
|
|
Texto da Comissão |
Alteração |
(2) Os sistemas de inteligência artificial (sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados‑Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União e evitar divergências que prejudiquem a livre circulação dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.º do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.º do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados. |
(2) Os sistemas de inteligência artificial (sistemas de IA) podem ser implantados facilmente em vários setores da economia e da sociedade, incluindo além fronteiras, e circular por toda a União. Certos Estados‑Membros já ponderaram a adoção de regras nacionais para assegurar que a inteligência artificial seja segura e seja desenvolvida e utilizada em conformidade com as obrigações de proteção dos direitos fundamentais. As diferenças entre regras nacionais podem conduzir à fragmentação do mercado interno e reduzir a segurança jurídica para os operadores que desenvolvem ou utilizam sistemas de IA. Como tal, é necessário assegurar um nível de proteção elevado e coerente em toda a União e evitar divergências que prejudiquem a livre circulação dos sistemas de IA e dos produtos e serviços conexos no mercado interno, mediante o estabelecimento de obrigações uniformes para os operadores e a garantia da proteção uniforme das razões imperativas de reconhecido interesse público e dos direitos das pessoas , dos utilizadores finais e dos destinatários finais em todo o mercado interno, com base no artigo 114.º do Tratado sobre o Funcionamento da União Europeia (TFUE). Visto que o presente regulamento contém regras específicas aplicáveis à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais, nomeadamente restrições à utilização de sistemas de IA para a identificação biométrica à distância «em tempo real» em espaços acessíveis ao público para efeitos de manutenção da ordem pública, é apropriado basear este regulamento no artigo 16.º do TFUE, no respeitante a essas regras específicas. Face a essas regras específicas e ao recurso ao artigo 16.º do TFUE, é apropriado consultar o Comité Europeu para a Proteção de Dados. |
Alteração 5
Proposta de regulamento
Considerando 3
|
|
Texto da Comissão |
Alteração |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, nos cuidados de saúde, na agricultura, na educação e na formação, na gestão das infraestruturas, na energia, nos transportes e logística, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
(3) A inteligência artificial é uma família de tecnologias em rápida evolução, capaz de oferecer um vasto conjunto de benefícios económicos, ambientais e sociais a todo o leque de indústrias e atividades sociais. Ao melhorar as previsões, otimizar as operações e a repartição de recursos e personalizar as soluções digitais disponibilizadas às pessoas e às organizações, a utilização da inteligência artificial pode conferir importantes vantagens competitivas às empresas e contribuir para progressos sociais e ambientais, por exemplo, na segurança dos alimentos, mediante a redução da utilização de pesticidas, na proteção da natureza, na conservação e na recuperação da biodiversidade e dos ecossistemas, na monitorização ambiental, no acesso a medicamentos e a cuidados de saúde, incluindo a saúde mental, na fixação de carbono nos solos agrícolas, na educação e na formação, na gestão das infraestruturas, na gestão de crises, na gestão de catástrofes naturais, na energia, nos transportes e logística sustentáveis, nos serviços públicos, na segurança, na justiça, na eficiência energética e dos recursos e na atenuação das alterações climáticas e adaptação às mesmas. |
Alteração 6
Proposta de regulamento
Considerando 4
|
|
Texto da Comissão |
Alteração |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União. Esses prejuízos podem ser materiais ou imateriais. |
(4) Ao mesmo tempo, em função das circunstâncias relativas à sua aplicação e utilização específicas, a inteligência artificial pode criar riscos e prejudicar interesses públicos e direitos protegidos pela legislação da União, sejam individuais, sociais ou ambientais. Esses prejuízos podem ser materiais ou imateriais, atuais ou futuros. |
Alteração 7
Proposta de regulamento
Considerando 4‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑A) No seu Livro Branco sobre a inteligência artificial – Uma abordagem europeia virada para a excelência e a confiança, de 19 de fevereiro de 2020, a Comissão recordou que a inteligência artificial pode contribuir para encontrar soluções para alguns dos desafios societais mais prementes, incluindo a luta contra as alterações climáticas, a perda de biodiversidade e a degradação ambiental, e sublinhou os potenciais benefícios e riscos da inteligência artificial relacionados com a segurança, a saúde e o bem‑estar das pessoas. |
Alteração 8
Proposta de regulamento
Considerando 4‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑B) Atenuar as alterações climáticas, fazer face aos desafios ambientais e alcançar os objetivos do Acordo de Paris estão no cerne da Comunicação da Comissão sobre o Pacto Ecológico Europeu, adotada a 11 de dezembro de 2019, em que a Comissão reiterou o papel das tecnologias digitais, nomeadamente a inteligência artificial, o 5G, a computação periférica e a Internet das coisas, na consecução de um futuro sustentável e na aceleração e reforço do impacto das políticas em matéria de atenuação e adaptação às alterações climáticas, proteção do ambiente e combate à perda de biodiversidade. |
Alteração 9
Proposta de regulamento
Considerando 4‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑C) As aplicações de IA podem trazer benefícios ambientais e económicos e reforçar as capacidades de previsão que contribuem para a luta contra as alterações climáticas, para o cumprimento dos Objetivos de Desenvolvimento Sustentável (ODS) e para a consecução do nosso objetivo de fazer da Europa o primeiro continente com impacto neutro no clima. Neste sentido, o recurso à IA poderá reduzir até 4 % as emissões globais de gases com efeito de estufa até 2030. Também foi estimado que as tecnologias de TIC são capazes de reduzir dez vezes mais as emissões de gases com efeito estufa do que sua própria pegada1‑A. Em termos ambientais, a inteligência artificial tem grande potencial para resolver problemas ambientais, como a redução do consumo de recursos, a promoção da descarbonização, o reforço da economia circular, o equilíbrio entre a oferta e a procura nas redes de eletricidade ou a otimização das rotas logísticas. A inteligência artificial também tem potencial para contribuir para reforçar a administração e a governação ambiental, facilitando as decisões administrativas relacionadas com a gestão do património ambiental, fiscalizando violações e fraudes ambientais e incentivando a participação dos cidadãos em iniciativas de conservação da biodiversidade. Além disso, a análise de grandes volumes de dados pode conduzir a uma melhor compreensão dos desafios ambientais e a um melhor acompanhamento das tendências e impactos. A gestão inteligente de grandes volumes de informação relacionada com o ambiente faculta igualmente soluções para uma melhor planificação ambiental, tomada de decisões e monitorização das ameaças ambientais e pode informar e incentivar as empresas ambientalmente sustentáveis, fornecendo‑lhes melhores informações para reorientar a tomada de decisões sustentáveis em diferentes modelos de negócio, e melhorando assim a eficiência da utilização dos recursos, da energia e dos materiais através de iniciativas de indústria inteligente e das tecnologias máquina‑máquina e internet das coisas (IdC). |
|
_____________ |
|
Alteração 10
Proposta de regulamento
Considerando 4‑D (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑D) As capacidades de análise preditiva proporcionadas por modelos baseados na inteligência artificial podem apoiar uma melhor manutenção dos sistemas e infraestruturas energéticos, bem como antecipar os padrões de interação da sociedade com os recursos naturais, facilitando assim uma melhor gestão dos recursos. A inteligência artificial pode ser útil na atenuação das alterações climáticas, por exemplo, no âmbito do programa da União Europeia de observação da Terra «Copernicus», que tem potencial para ser o programa necessário para obter informações científicas rigorosas que permitam a tomada de decisões com base em dados científicos e a execução das políticas da União em matéria de clima, biodiversidade e outros domínios ambientais. A saída do Reino Unido da União Europeia causou um défice de financiamento significativo do programa Copernicus supramencionado, que coloca em perigo o futuro do Copernicus e que necessita de ser resolvido de forma correta, garantindo fundos suficientes e apoio ao tratamento de dados, de modo a que, no futuro, seja garantido o acompanhamento e a análise de todos os indicadores ambientais centrais com base em tecnologias avançadas e automatizadas e na inteligência artificial. Além disso, a identificação tradicional das espécies é demorada e dispendiosa, o que dificulta as avaliações da biodiversidade em tempo real. A integração de sistemas de IA permite abandonar a classificação e identificação manuais de espécies, o que pode contribuir para a preservação dos animais, já que as autoridades poderão identificar rapidamente, observar e monitorizar as populações de espécies em perigo e ajudar a informar sobre medidas adicionais, se necessário, para fins de conservação. |
Alteração 11
Proposta de regulamento
Considerando 4‑E (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑E) A fim de assegurar a dupla transição ecológica e digital e garantir a resiliência tecnológica da UE, de reduzir a pegada de carbono da inteligência artificial e de alcançar os objetivos do novo Pacto Ecológico Europeu, o presente regulamento contribui para a promoção de uma inteligência artificial ecológica e sustentável e para a tomada em consideração do impacto ambiental dos sistemas de IA ao longo do seu ciclo de vida. A sustentabilidade deve estar no cerne do quadro europeu da inteligência artificial, a fim de garantir que o desenvolvimento da inteligência artificial seja compatível com o desenvolvimento sustentável dos recursos ambientais para as gerações atuais e futuras, em todas as fases do ciclo de vida dos produtos de inteligência artificial; a sustentabilidade da inteligência artificial deve abranger fontes de dados, centros de dados, utilização de recursos, fontes de energia e infraestruturas sustentáveis. |
Alteração 12
Proposta de regulamento
Considerando 4‑F (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑F) Apesar do elevado potencial das soluções para a crise ambiental e climática oferecidas pela inteligência artificial, a conceção, o treino e a execução de algoritmos implicam um elevado consumo de energia e, consequentemente, elevados níveis de emissões de carbono. As tecnologias de inteligência artificial e os centros de dados têm uma elevada pegada de carbono decorrente do aumento do consumo de energia computacional e dos elevados custos de energia devido ao volume de dados armazenado e à quantidade resíduos de calor, elétricos e eletrónicos gerados, o que resulta, assim, num aumento da poluição. Espera‑se que essas pegadas ambientais e de carbono aumentem ao longo do tempo, à medida que o volume de dados transferidos e armazenados e o desenvolvimento de aplicações de inteligência artificial continuem a crescer exponencialmente nos próximos anos. Por conseguinte, é importante minimizar a pegada climática e ambiental da inteligência artificial e das tecnologias conexas e que os sistemas de IA e as máquinas associadas sejam concebidos de forma sustentável para reduzir a utilização de recursos e o consumo de energia, limitando assim os riscos para o ambiente. |
Alteração 13
Proposta de regulamento
Considerando 4‑G (novo)
|
|
Texto da Comissão |
Alteração |
|
(4‑G) A fim de promover o desenvolvimento sustentável dos sistemas de IA e, em especial, de dar prioridade à necessidade de centros de dados sustentáveis e eficientes em termos energéticos, os requisitos para um aquecimento e refrigeração eficientes dos centros de dados devem ser coerentes com as normas e prioridades da União a longo prazo em matéria de clima e ambiente e respeitar o princípio de «não prejudicar significativamente» na aceção do artigo 17.º do Regulamento (UE) 2020/852 relativo ao estabelecimento de um regime para a promoção do investimento sustentável, devendo ser totalmente descarbonizados até janeiro de 2050. A este respeito, os Estados‑Membros e os operadores de telecomunicações devem recolher e publicar informações sobre o desempenho energético e a pegada ambiental das tecnologias de inteligência artificial e dos centros de dados, incluindo informações sobre a eficiência energética dos algoritmos, a fim de estabelecer um indicador de sustentabilidade para as tecnologias de inteligência artificial. Um código de conduta europeu para a eficiência energética dos centros de dados pode estabelecer indicadores‑chave de sustentabilidade para medir quatro dimensões básicas de um centro de dados sustentável, a saber, a eficiência na utilização da energia, a proporção de energia produzida a partir de fontes de energia renováveis, a reutilização de resíduos e de calor e a utilização de água doce. |
Alteração 14
Proposta de regulamento
Considerando 5
|
|
Texto da Comissão |
Alteração |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna‑se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover a conceção, o desenvolvimento, a utilização e a adoção da inteligência artificial sustentável e ecológica, alinhada com os objetivos do Pacto Ecológico Europeu, no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança, o ambiente e as alterações climáticas, a segurança alimentar e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna‑se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, não tendenciosa, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
_________________ |
|
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
Alteração 15
Proposta de regulamento
Considerando 6
|
|
Texto da Comissão |
Alteração |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve basear‑se nas principais características funcionais do software, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas, como a neurotecnologia, que é suscetível de comprometer a privacidade em matéria de saúde mental e requerer propostas legislativas destinadas a proteger os neurodados e outros dados de saúde sensíveis. A definição deve basear‑se nas principais características funcionais do software, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
Alteração 16
Proposta de regulamento
Considerando 13
|
|
Texto da Comissão |
Alteração |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança, dos direitos fundamentais ou do ambiente, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
Alteração 17
Proposta de regulamento
Considerando 13‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
(13‑C) A inteligência artificial pode revelar soluções no setor da saúde suscetíveis de salvar milhões de vidas, de dar resposta a necessidades não satisfeitas, de aumentar o nível de vida das pessoas e de melhorar os cuidados prestados aos doentes e os resultados da saúde, especialmente no diagnóstico, no prognóstico e no tratamento, na participação, na adesão, na gestão e no acompanhamento dos doentes, na tomada de decisões clínicas, incluindo a análise preditiva, a triagem e a otimização de percursos clínicos, e na patologia. A inteligência artificial também pode melhorar as estratégias de prevenção, a gestão dos sistemas de saúde e a organização e prestação de serviços de saúde e cuidados médicos, nomeadamente através da promoção da saúde e de intervenções relacionadas com a prevenção de doenças. Tem também potencial para promover a competitividade das partes interessadas e melhorar a relação custo‑eficácia e a sustentabilidade dos serviços de saúde e dos cuidados médicos. A União tem potencial para assumir uma posição de liderança na aplicação de inteligência artificial no setor da saúde. |
Alteração 18
Proposta de regulamento
Considerando 16
|
|
Texto da Comissão |
Alteração |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos ou psicológicos. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem‑máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica. |
(16) Deve ser proibida a colocação no mercado, a colocação em serviço ou a utilização de determinados sistemas de IA concebidos para distorcer o comportamento humano, os quais são passíveis de provocar danos físicos, psicológicos ou perturbar o sentido de identidade. Esses sistemas de IA utilizam componentes subliminares que não são detetáveis pelos seres humanos ou exploram vulnerabilidades de crianças e adultos associadas à sua idade e às suas incapacidades físicas ou mentais. A intenção destes sistemas é distorcer substancialmente o comportamento de uma pessoa de uma forma que cause ou seja suscetível de causar danos a essa ou a outra pessoa ou remover o controlo em última instância sobre a tomada de decisões pessoais, com a manipulação desconhecida a partir de neurotecnologias externas. A intenção pode não ser detetada caso a distorção do comportamento humano resulte de fatores externos ao sistema de IA que escapam ao controlo do fornecedor ou do utilizador. A proibição não pode impedir a investigação desses sistemas de IA para efeitos legítimos, desde que essa investigação não implique uma utilização do sistema de IA em relações homem‑máquina que exponha pessoas singulares a danos e seja efetuada de acordo com normas éticas reconhecidas para fins de investigação científica. |
Alteração 19
Proposta de regulamento
Considerando 27
|
|
Texto da Comissão |
Alteração |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar‑se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para prioridades climáticas, imperativos ambientais e interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar‑se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança, nas emissões de gases com efeito de estufa, em parâmetros ambientais cruciais, como a biodiversidade ou a poluição dos solos e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
Alteração 20
Proposta de regulamento
Considerando 27‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(27‑A) Segundo a definição da Organização Mundial de Saúde (OMS), «a saúde é um estado de completo bem‑estar físico, mental e social, e não apenas a ausência de doença ou enfermidade». A fim de melhorar a saúde da população na União e de reduzir as desigualdades na saúde é essencial não limitar a questão apenas à saúde física. As tecnologias digitais e, especialmente, a inteligência artificial são passíveis de ter um impacto negativo direto na saúde mental. Ao mesmo tempo, deve ser explorado todo o potencial da inteligência artificial para criar soluções de previsão, deteção e tratamento no domínio da saúde mental. O direito à saúde física e mental é um direito humano fundamental e a cobertura universal da saúde é um ODS que todos os signatários se comprometeram a alcançar até 2030. |
Alteração 21
Proposta de regulamento
Considerando 28
|
|
Texto da Comissão |
Alteração |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem‑estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas. |
(28) Os sistemas de IA podem produzir resultados adversos para a saúde e a segurança das pessoas ou para o ambiente, em particular quando esses sistemas funcionam como componentes de produtos. Em conformidade com os objetivos da legislação de harmonização da União, designadamente facilitar a livre circulação de produtos no mercado interno e assegurar que apenas os produtos seguros e conformes entram no mercado, é importante prevenir e atenuar devidamente os riscos de segurança que possam ser criados por um produto devido aos seus componentes digitais, incluindo sistemas de IA. A título de exemplo, os robôs, que se têm tornado cada vez mais autónomos, devem operar com segurança e realizar as suas funções em ambientes complexos, seja num contexto industrial ou de assistência e cuidados pessoais. De igual forma, no setor da saúde, em que os riscos para a vida e a saúde são particularmente elevados, os cada vez mais sofisticados sistemas de diagnóstico e sistemas que apoiam decisões humanas devem produzir resultados exatos e de confiança. A saúde digital não deve desumanizar os cuidados nem afetar a relação médico‑doente, devendo antes assistir os médicos no diagnóstico ou tratamento dos doentes mais eficazes, tendo em conta a necessária supervisão humana e no respeito das regras pertinentes em matéria de proteção de dados. A dimensão dos impactos adversos causados pelo sistema de IA nos direitos fundamentais protegidos pela Carta é particularmente importante quando se classifica um sistema de IA como sendo de risco elevado. Esses direitos incluem o direito à dignidade do ser humano, o respeito da vida privada e familiar, a proteção de dados pessoais e de saúde, a liberdade de expressão e de informação, a liberdade de reunião e de associação, a não discriminação, a defesa dos consumidores, os direitos dos trabalhadores, os direitos das pessoas com deficiência, o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa e o direito a uma boa administração. Além desses direitos, é importante salientar que as crianças têm direitos específicos, consagrados no artigo 24.º da Carta da UE e na Convenção das Nações Unidas sobre os Direitos da Criança (descritos em mais pormenor no Comentário geral n.º 25 da Convenção das Nações Unidas sobre os Direitos da Criança no respeitante ao ambiente digital), que exigem que as vulnerabilidades das crianças sejam tidas em conta e que estas recebam a proteção e os cuidados necessários ao seu bem‑estar. O direito fundamental a um nível elevado de proteção do ambiente consagrado na Carta e aplicado nas políticas da União também deve ser tido em conta ao avaliar a gravidade dos danos que um sistema de IA pode causar, incluindo em relação à saúde e à segurança das pessoas e ao ambiente. |
Alteração 22
Proposta de regulamento
Considerando 28‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(28‑A) Em termos de saúde e direitos dos doentes, os sistemas de IA podem desempenhar um papel fundamental na melhoria da saúde dos doentes individualmente e do desempenho dos sistemas de saúde pública. No entanto, quando a inteligência artificial é implantada no contexto da saúde, os doentes podem ser expostos a potenciais riscos específicos que podem ocasionar danos físicos ou psicológicos, por exemplo, quando diferentes enviesamentos relacionados com a idade, a etnia, o sexo ou deficiências nos algoritmos conduzem a diagnósticos incorretos. A falta de transparência em torno do funcionamento dos algoritmos também dificulta a prestação das informações pertinentes aos doentes, que lhes são necessárias para exercer os seus direitos, como o consentimento informado. Além disso, a dependência da inteligência artificial em relação a grandes quantidades de dados, muitos dos quais dados pessoais, pode afetar a proteção de dados médicos, devido ao controlo limitado dos doentes sobre a utilização dos seus dados pessoais e às vulnerabilidades de cibersegurança dos sistemas de IA. Tudo isto significa que devem ser tomadas especiais precauções quando a inteligência artificial é aplicada em ambientes clínicos ou de prestação de cuidados de saúde. Para melhorar os resultados no que respeita à saúde da população nos Estados‑Membros, é essencial a definição de um quadro de responsabilidade claro para as aplicações médicas e o desenvolvimento de medicamentos baseados na inteligência artificial. |
Alteração 23
Proposta de regulamento
Considerando 28‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(28‑B) Os sistemas de IA não abrangidos pelo Regulamento (UE) 2017/745 com impacto na saúde ou nos cuidados de saúde devem ser classificados como de risco elevado e abrangidos pelo presente regulamento. Os cuidados de saúde são um dos setores em que estão a ser implantadas muitas aplicações de inteligência artificial na União e são um mercado que apresenta um risco potencial elevado para a saúde humana. O Regulamento (UE) 2017/745 abrange apenas dispositivos médicos e software com finalidade médica prevista, excluindo muitas aplicações de inteligência artificial utilizadas na saúde, como sistemas administrativos e de gestão baseados na inteligência artificial, utilizados por profissionais de saúde em hospitais ou noutros contextos de prestação de cuidados de saúde e por companhias de seguros de saúde, e muitas aplicações de fitness e de saúde que formulam recomendações baseadas em inteligência artificial. Estas aplicações podem apresentar novos desafios e riscos para as pessoas, devido aos seus efeitos na saúde ou ao tratamento de dados de saúde sensíveis. A fim de controlar estes potenciais riscos específicos que podem ocasionar danos físicos ou psicológicos ou a utilização indevida de dados de saúde sensíveis, estes sistemas de IA devem ser classificados como de risco elevado. |
Alteração 24
Proposta de regulamento
Considerando 31
|
|
Texto da Comissão |
Alteração |
(31) Classificar um sistema de IA como de risco elevado nos termos do presente regulamento não implica necessariamente que o produto cujo componente de segurança é o sistema de IA ou que o próprio sistema de IA enquanto produto seja considerado «de risco elevado», segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. Tal verifica‑se no respeitante ao Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho47 e ao Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho48 , que preveem a avaliação por terceiros da conformidade de produtos de risco médio e elevado. |
(31) Classificar um sistema de IA como de risco elevado nos termos do presente regulamento não implica, salvo se devidamente justificado, que o produto cujo componente de segurança é o sistema de IA ou que o próprio sistema de IA enquanto produto seja considerado «de risco elevado», segundo os critérios estabelecidos na legislação de harmonização da União aplicável ao produto. Tal verifica‑se no respeitante ao Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho47 e ao Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho48, que preveem a avaliação por terceiros da conformidade de produtos de risco médio e elevado. A fim de assegurar a coerência e a clareza jurídica, caso o sistema baseado no risco fornecido já tenha em conta os riscos potenciais associados, os componentes de inteligência artificial devem continuar a ser avaliados como parte do dispositivo global. |
_________________ |
_________________ |
47 Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos, que altera a Diretiva 2001/83/CE, o Regulamento (CE) n.º 178/2002 e o Regulamento (CE) n.º 1223/2009 e que revoga as Diretivas 90/385/CEE e 93/42/CEE do Conselho (JO L 117 de 5.5.2017, p. 1). |
47 Regulamento (UE) 2017/745 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos, que altera a Diretiva 2001/83/CE, o Regulamento (CE) n.º 178/2002 e o Regulamento (CE) n.º 1223/2009 e que revoga as Diretivas 90/385/CEE e 93/42/CEE do Conselho (JO L 117 de 5.5.2017, p. 1). |
48 Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos para diagnóstico in vitro e que revoga a Diretiva 98/79/CE e a Decisão 2010/227/UE da Comissão (JO L 117 de 5.5.2017, p. 176). |
48 Regulamento (UE) 2017/746 do Parlamento Europeu e do Conselho, de 5 de abril de 2017, relativo aos dispositivos médicos para diagnóstico in vitro e que revoga a Diretiva 98/79/CE e a Decisão 2010/227/UE da Comissão (JO L 117 de 5.5.2017, p. 176). |
Alteração 25
Proposta de regulamento
Considerando 32
|
|
Texto da Comissão |
Alteração |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá‑los como de risco elevado se, em função da finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento. A identificação desses sistemas baseia‑se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá‑los como de risco elevado se, em função da finalidade prevista, representarem um risco elevado de danos para a saúde, a segurança ou de prejuízo para os direitos fundamentais das pessoas ou o ambiente, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento. A identificação desses sistemas baseia‑se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
Alteração 26
Proposta de regulamento
Considerando 34
|
|
Texto da Comissão |
Alteração |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água e gás, dos sistemas de saúde, dos mecanismos de controlo de catástrofes naturais ou de origem humana e dos sistemas de aquecimento e eletricidade, uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas e o ambiente em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. |
Alteração 27
Proposta de regulamento
Considerando 37
|
|
Texto da Comissão |
Alteração |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado, é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas. |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, nomeadamente os cuidados de saúde, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade, os cuidados de saúde e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado, é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência, na saúde e no bem‑estar das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências, prevenção, diagnóstico, controlo e tratamento de doenças devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas ou o ambiente. |
Alteração 28
Proposta de regulamento
Considerando 38
|
|
Texto da Comissão |
Alteração |
(38) As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas autoridades policiais em avaliações individuais de riscos, em polígrafos e em instrumentos semelhantes ou para detetar o estado emocional de uma pessoa singular, para detetar «falsificações profundas», para avaliar a fiabilidade dos elementos de prova em processos penais, para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser considerados sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais. |
(38) As ações das autoridades policiais que implicam certas utilizações dos sistemas de IA são caracterizadas por um grau substancial de desequilíbrio de poder e podem conduzir à vigilância, detenção ou privação da liberdade de uma pessoa singular, bem como ter outros impactos adversos nos direitos fundamentais garantidos pela Carta. Em particular, se não for treinado com dados de alta qualidade, não cumprir os requisitos adequados em termos de exatidão ou solidez ou não tiver sido devidamente concebido e testado antes de ser colocado no mercado ou em serviço, o sistema de IA pode destacar pessoas de uma forma discriminatória ou incorreta e injusta. Além disso, o exercício de importantes direitos fundamentais processuais, como o direito à ação, incluindo o direito ao acesso à justiça em matéria de ambiente, conforme estabelecido na Convenção da UNECE sobre Acesso à Informação, Participação do Público no Processo de Tomada de Decisão e Acesso à Justiça em Matéria de Ambiente («Convenção de Aarhus»), aplicável às instituições e órgãos comunitários por força do Regulamento (CE) n.º 1367/2006*, e a um tribunal imparcial, a presunção de inocência e o direito de defesa, pode ser prejudicado, em particular, se esses sistemas de IA não forem suficientemente transparentes, explicáveis e documentados. Como tal, é apropriado classificar como de risco elevado um conjunto de sistemas de IA concebidos para serem utilizados no contexto da manutenção da ordem pública, no qual a exatidão, a fiabilidade e a transparência são particularmente importantes para evitar impactos adversos, reter a confiança do público e assegurar a responsabilidade e vias de recurso eficazes. Tendo em conta a natureza das atividades em causa e os riscos associados às mesmas, esses sistemas de IA de risco elevado devem incluir, em particular, sistemas de IA concebidos para serem utilizados pelas autoridades policiais em avaliações individuais de riscos, em polígrafos e em instrumentos semelhantes ou para detetar o estado emocional de uma pessoa singular, para detetar «falsificações profundas», para avaliar a fiabilidade dos elementos de prova em processos penais, para prever a ocorrência ou a recorrência de uma infração penal real ou potencial com base na definição de perfis de pessoas singulares ou para avaliar os traços de personalidade e as características ou o comportamento criminal passado de pessoas singulares ou grupos, para a definição de perfis no decurso da deteção, investigação ou repressão de infrações penais, bem como para o estudo analítico de crimes relativos a pessoas singulares. Os sistemas de IA especificamente concebidos para serem utilizados em processos administrativos por autoridades fiscais e aduaneiras não devem ser considerados sistemas de IA de risco elevado utilizados por autoridades policiais para efeitos de prevenção, deteção, investigação e repressão de infrações penais. |
_________________ |
_________________ |
|
* Regulamento (CE) n.º 1367/2006 do Parlamento Europeu e do Conselho, de 6 de setembro de 2006, relativo à aplicação das disposições da Convenção de Aarhus sobre o acesso à informação, participação do público no processo de tomada de decisão e acesso à justiça em matéria de ambiente às instituições e órgãos comunitários (JO L 264 de 25.9.2006, p. 13). |
|
|
Alteração 29
Proposta de regulamento
Considerando 40
|
|
Texto da Comissão |
Alteração |
(40) Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, é apropriado classificar como de risco elevado os sistemas de IA concebidos para auxiliar as autoridades judiciárias na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos. |
(40) Determinados sistemas de IA concebidos para a administração da justiça e os processos democráticos devem ser classificados como de risco elevado, tendo em conta o seu impacto potencialmente significativo na democracia, no Estado de direito e nas liberdades individuais, bem como no direito à ação e a um tribunal imparcial. Em particular, para fazer face aos riscos de potenciais enviesamentos, erros e opacidade, bem como a graves preocupações éticas respeitantes à autonomia e à tomada de decisão das máquinas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para auxiliar as autoridades judiciárias na investigação e na interpretação de factos e do direito e na aplicação da lei a um conjunto específico de factos. Contudo, essa classificação não deve ser alargada aos sistemas de IA concebidos para atividades administrativas puramente auxiliares que não afetam a administração efetiva da justiça em casos individuais, como a anonimização ou a pseudonimização de decisões judiciais, documentos ou dados, comunicações entre pessoal, tarefas administrativas ou afetação de recursos. |
Alteração 30
Proposta de regulamento
Considerando 43
|
|
Texto da Comissão |
Alteração |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores e destinatários finais, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança, os direitos fundamentais e, em termos mais gerais, para o clima e o ambiente, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. Para evitar eventuais alinhamentos incorretos ou duplicações, a Comissão deve determinar claramente onde pode prevalecer qualquer legislação setorial pertinente relativa à governação dos dados e quaisquer práticas de gestão ou critérios de qualidade associados. |
Alteração 31
Proposta de regulamento
Considerando 43‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(43‑A) Estes requisitos devem também ter em conta os princípios e instrumentos internacionais em matéria de ambiente e direitos humanos, nomeadamente a Convenção de Aarhus, a Resolução 48/13 do Conselho dos Direitos Humanos, adotada em 8 de outubro de 2021, sobre o direito humano a um ambiente limpo, saudável e sustentável, bem como os compromissos internacionais em matéria de clima, especialmente os descritos no relatório especial de 2018 do PIAC sobre o aquecimento global de 1,5 °C. |
Alteração 32
Proposta de regulamento
Considerando 43‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(43‑B) A União compromete‑se a avançar no sentido do reconhecimento do direito a um ambiente limpo, saudável e sustentável, conforme estabelecido na Resolução n.º 48/13 do Conselho de Direitos Humanos das Nações Unidas. |
Alteração 33
Proposta de regulamento
Considerando 44
|
|
Texto da Comissão |
Alteração |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, ou seja, de assegurar a não discriminação algorítmica, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
Alteração 34
Proposta de regulamento
Considerando 45
|
|
Texto da Comissão |
Alteração |
(45) No contexto do desenvolvimento de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, instalações de teste e experimentação e investigadores, devem poder aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA. |
(45) No contexto do desenvolvimento de sistemas de IA de risco elevado, determinados intervenientes, como fornecedores, organismos notificados e outras entidades interessadas, como polos de inovação digital, institutos de investigação e científicos, autoridades de saúde, hospitais, instalações de teste e experimentação e investigadores, devem poder ter mais possibilidades de aceder e utilizar conjuntos de dados de elevada qualidade dentro das respetivas áreas de intervenção relacionadas com o presente regulamento. Os espaços comuns europeus de dados criados pela Comissão e a facilitação da partilha de dados entre empresas e com as administrações públicas por motivos de interesse público serão cruciais para conceder um acesso fiável, responsável e não discriminatório a dados de elevada qualidade para o treino, a validação e o teste de sistemas de IA. Por exemplo, no domínio da saúde, o espaço europeu de dados de saúde facilitará o acesso não discriminatório a dados de saúde e o treino de algoritmos de inteligência artificial com base nesses conjuntos de dados, de forma segura, oportuna, transparente, fidedigna e protetora da privacidade e sob a alçada de uma governação institucional adequada. As aplicações de inteligência artificial para medicamentos e cuidados de saúde devem apoiar a interoperabilidade dos dados de saúde e das informações epidemiológicas para melhor assegurar aos médicos o apoio necessário para diagnosticarem e tratarem doentes de forma mais eficaz, a fim de melhorar os resultados. Os Estados‑Membros devem criar incentivos para garantir que os dados sejam plenamente interoperáveis, a fim de desbloquear todo o potencial dos serviços de saúde de elevada qualidade da Europa, respeitando ao mesmo tempo o Regulamento (UE) 2016/679. As autoridades competentes, incluindo as autoridades setoriais, que concedem ou apoiam o acesso aos dados também podem apoiar o fornecimento de dados de elevada qualidade para fins de treino, validação e teste de sistemas de IA. |
Alteração 35
Proposta de regulamento
Considerando 46
|
|
Texto da Comissão |
Alteração |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento, é essencial dispor de informações sobre o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada. |
(46) Para verificar o cumprimento dos requisitos estabelecidos no presente regulamento, é essencial dispor de informações sobre a conceção e o desenvolvimento dos sistemas de IA de risco elevado e sobre o seu desempenho ao longo do respetivo ciclo de vida. Tal exige a manutenção de registos e a disponibilização de documentação técnica que contenham as informações necessárias para avaliar o cumprimento, por parte do sistema de IA, dos requisitos aplicáveis. Essas informações devem incluir as características gerais, as capacidades e as limitações do sistema, os algoritmos, os dados e os processos de treino, teste e validação utilizados, bem como documentação sobre o sistema de gestão de riscos aplicado. A documentação técnica deve estar sempre atualizada. |
Alteração 36
Proposta de regulamento
Considerando 46‑A
|
|
Texto da Comissão |
Alteração |
|
(46‑A) A inteligência artificial deve contribuir para o Pacto Ecológico Europeu e para a transição ecológica e ser utilizada pelos governos e pelas empresas em benefício das pessoas e do planeta. Neste sentido, a Comissão e os Estados‑Membros devem incentivar a conceção, o desenvolvimento, a implantação e a utilização de sistemas de IA eficientes do ponto de vista energético e hipocarbónicos através da elaboração de procedimentos de melhores práticas e da publicação de orientações e metodologias. Além disso, a Comissão deve criar um procedimento, uma metodologia, normas mínimas e uma escala, a aplicar a todos os sistemas de IA numa base voluntária, a fim de facilitar uma divulgação de informações com base em múltiplos critérios sobre a energia utilizada na formação, reconversão, afinação e execução de sistemas de IA, bem como uma avaliação quantitativa da forma como o sistema de IA afeta a atenuação e a adaptação às alterações climáticas, incluindo a sua intensidade de carbono. |
Alteração 37
Proposta de regulamento
Considerando 47
|
|
Texto da Comissão |
Alteração |
(47) Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares, os sistemas de IA de risco elevado devem observar um certo grau de transparência. Os utilizadores devem ser capazes de interpretar o resultado do sistema e utilizá‑lo de forma adequada. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
(47) Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares, os sistemas de IA de risco elevado devem observar um certo grau de transparência. Os utilizadores e destinatários finais devem ser capazes de interpretar o resultado do sistema e utilizá‑lo de forma adequada. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
Alteração 38
Proposta de regulamento
Considerando 48
|
|
Texto da Comissão |
Alteração |
(48) Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares. Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. |
(48) Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares. Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. A supervisão humana adequada e qualquer intervenção subsequente não devem afetar a função prevista do sistema de IA de forma a colocar em risco a saúde, a segurança ou os direitos fundamentais, conforme aplicável à luz da finalidade prevista do sistema. |
Alteração 39
Proposta de regulamento
Considerando 48‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(48‑A) As recomendações relativas à supervisão humana constantes do parecer da Comissão do Ambiente, da Saúde Pública e da Segurança Alimentar dirigido à Comissão dos Assuntos Jurídicos e que contém recomendações dirigidas à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas (2020/2012(INL)) complementam o presente regulamento. |
Alteração 40
Proposta de regulamento
Considerando 49
|
|
Texto da Comissão |
Alteração |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. O nível e as métricas de exatidão devem ser comunicadas aos utilizadores. |
(49) Os sistemas de IA de risco elevado devem ter um desempenho coerente ao longo de todo o ciclo de vida e apresentar um nível adequado de exatidão, solidez e cibersegurança, de acordo com o estado da técnica geralmente reconhecido. O nível e as métricas de exatidão devem ser comunicadas aos utilizadores e aos destinatários finais. |
Alteração 41
Proposta de regulamento
Considerando 50
|
|
Texto da Comissão |
Alteração |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. |
(50) A solidez técnica é um requisito essencial dos sistemas de IA de risco elevado. Estes sistemas devem ser resistentes aos riscos associados às suas limitações (por exemplo, erros, falhas, incoerências, situações inesperadas), bem como a ações maliciosas suscetíveis de pôr em causa a segurança do sistema de IA e dar origem a comportamentos prejudiciais ou indesejáveis. A falta de proteção contra estes riscos pode causar problemas de segurança, ter consequências negativas no ambiente ou afetar negativamente os direitos fundamentais, por exemplo, devido a decisões erradas ou a resultados errados ou enviesados gerados pelo sistema de IA. |
Alteração 42
Proposta de regulamento
Considerando 54
|
|
Texto da Comissão |
Alteração |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós‑comercialização capaz. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente, incluindo o consumo de energia e a intensidade de carbono do sistema, e estabelecer um sistema de acompanhamento pós‑comercialização capaz. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. Sempre que tal se sobreponha a qualquer legislação setorial relevante e aplicável, a terminologia pertinente deve ser devidamente harmonizada, a fim de evitar qualquer fragmentação desnecessária. |
Alteração 43
Proposta de regulamento
Considerando 59‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(59‑A) Dada a natureza específica e as utilizações potenciais dos sistemas de IA eventualmente destinados às pessoas singulares que não são utilizadores nem operadores, é importante garantir a proteção de determinados direitos, nomeadamente no que diz respeito à transparência e à prestação de informações, aos destinatários finais, como os utentes dos serviços de saúde, os estudantes, os consumidores, etc. A legislação em vigor deve visar fornecer o tipo e grau adequados de transparência, bem como a prestação de informações específicas aos destinatários finais e estabelecer uma diferença clara junto dos utilizadores, já que tal pode aumentar a proteção e a facilidade de utilização dos sistemas e componentes de IA. |
Alteração 44
Proposta de regulamento
Considerando 68
|
|
Texto da Comissão |
Alteração |
(68) Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas e da sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares e de proteção da propriedade industrial e comercial, os Estados‑Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade. |
(68) Em certas condições, uma disponibilização rápida de tecnologias inovadoras pode ser crucial para a saúde e a segurança das pessoas, para o ambiente e as alterações climáticas e para a sociedade em geral. Como tal, é apropriado que, por razões excecionais de segurança pública ou proteção da vida e da saúde das pessoas singulares, de proteção do ambiente e de proteção da propriedade industrial e comercial, os Estados‑Membros possam autorizar a colocação no mercado ou a colocação em serviço de sistemas de IA que não foram objeto de uma avaliação da conformidade. |
Alteração 45
Proposta de regulamento
Considerando 70
|
|
Texto da Comissão |
Alteração |
(70) Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, em certas circunstâncias, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser notificadas de que estão a interagir com um sistema de IA, a não ser que tal seja óbvio tendo em conta as circunstâncias e o contexto de utilização. Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem ser fornecidas em formatos acessíveis a pessoas com deficiência. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
(70) Determinados sistemas de IA concebidos para interagir com pessoas singulares ou para criar conteúdos podem representar riscos específicos de usurpação de identidade ou fraude, independentemente de serem considerados de risco elevado ou não. Como tal, nestas circunstâncias, a utilização destes sistemas deve ser sujeita a obrigações de transparência específicas sem prejudicar os requisitos e as obrigações aplicáveis aos sistemas de IA de risco elevado. Em particular, as pessoas singulares devem ser notificadas de que estão a interagir com um sistema de IA, a não ser que tal seja óbvio tendo em conta as circunstâncias e o contexto de utilização. Além disso, as pessoas singulares devem ser notificadas quando são expostas a um sistema de reconhecimento de emoções ou a um sistema de categorização biométrica. Essas informações e notificações devem ser fornecidas em tempo útil e num formato acessível, prestando especial atenção a pessoas com deficiência. Além disso, os utilizadores que recorrem a um sistema de IA para gerar ou manipular conteúdos de imagem, áudio ou vídeo que sejam consideravelmente semelhantes a pessoas, locais ou acontecimentos reais e que, falsamente, pareçam ser autênticos a outrem devem divulgar que os conteúdos foram criados de forma artificial ou manipulados, identificando como tal o resultado da inteligência artificial e divulgando a sua origem artificial. |
Alteração 46
Proposta de regulamento
Considerando 71
|
|
Texto da Comissão |
Alteração |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige formas novas e eficazes de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro, sustentável e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores, com particular ênfase na promoção de sistemas de IA sustentáveis e ecológicos, sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. |
Alteração 47
Proposta de regulamento
Considerando 72
|
|
Texto da Comissão |
Alteração |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança, a saúde, o ambiente e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
Alteração 48
Proposta de regulamento
Considerando 73‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(73‑A) A fim de promover uma inovação mais sustentável e mais ecológica, a Comissão e os Estados‑Membros devem publicar orientações e metodologias para algoritmos eficientes que forneçam dados e modelos pré‑treinados, tendo em vista a racionalização da atividade de treino. O desenvolvimento de procedimentos de boas práticas também contribuirá para a identificação e o subsequente desenvolvimento de soluções para os desafios ambientais mais prementes dos sistemas de IA, incluindo o desenvolvimento da rotulagem de IA ecológica. |
Alteração 49
Proposta de regulamento
Considerando 74
|
|
Texto da Comissão |
Alteração |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados‑Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. |
(74) Para minimizar os riscos para a aplicação resultantes da falta de conhecimentos e competências especializadas no mercado, bem como facilitar o cumprimento, por parte dos fornecedores e dos organismos notificados, das obrigações que lhes são impostas pelo presente regulamento, a «plataforma IA a pedido», os polos europeus de inovação digital, o Instituto Europeu de Inovação e Tecnologia e as instalações de ensaio e experimentação criadas pela Comissão e pelos Estados‑Membros a nível nacional ou europeu podem eventualmente contribuir para a aplicação do presente regulamento. No âmbito da respetiva missão e domínios de competência, estas entidades podem prestar apoio técnico e científico aos fornecedores e aos organismos notificados. |
Alteração 50
Proposta de regulamento
Considerando 76
|
|
Texto da Comissão |
Alteração |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, a criação de um grupo de trabalho para a sustentabilidade da inteligência artificial com vista ao desenvolvimento sustentável de inteligência artificial e à evolução no sentido de critérios harmonizados no tocante a especificações técnicas sustentáveis, normas existentes e boas práticas relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência especializados à Comissão sobre questões específicas relacionadas com a inteligência artificial, a fim de melhor abordar desafios transfronteiras emergentes que decorrem do rápido desenvolvimento tecnológico. |
Alteração 51
Proposta de regulamento
Considerando 76‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(76‑A) Para garantir que haja uma abordagem comum e coerente em relação à implantação e ao funcionamento de sistemas de inteligência artificial nos vários domínios e setores em causa, e para explorar potenciais sinergias e complementaridades, o Comité deve cooperar estreitamente com outros grupos consultivos setoriais competentes criados a nível da União, como conselhos, comités e grupos de peritos, incluindo organizações da sociedade civil, como organizações não governamentais, associações de consumidores e representantes da indústria com competência em domínios relacionados com as tecnologias digitais ou a inteligência artificial, designadamente a governação, o intercâmbio, o acesso aos dados ou a utilização e reutilização de dados, nomeadamente dados de saúde ou informação ambiental, evitando em simultâneo a duplicação de trabalho. |
Alteração 52
Proposta de regulamento
Considerando 78
|
|
Texto da Comissão |
Alteração |
(78) Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós‑comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União que protege os direitos fundamentais resultantes da utilização dos sistemas de IA que fornecem. |
(78) Para assegurar que os fornecedores de sistemas de IA de risco elevado possam aproveitar a experiência adquirida na utilização de sistemas de IA de risco elevado para melhorarem os seus sistemas e o processo de conceção e desenvolvimento ou possam adotar possíveis medidas corretivas em tempo útil, todos os fornecedores devem dispor de um sistema de acompanhamento pós‑comercialização. Este sistema também é fundamental para assegurar uma resolução mais eficaz e atempada dos eventuais riscos decorrentes dos sistemas de IA que continuam a «aprender» depois de terem sido colocados no mercado ou em serviço. Neste contexto, os fornecedores devem ainda ser obrigados a introduzir um sistema para comunicar às autoridades competentes quaisquer incidentes graves ou violações do direito nacional e da União que protege os direitos fundamentais resultantes da utilização dos sistemas de IA que fornecem. Do mesmo modo, as organizações da sociedade civil e outras partes interessadas devem poder apresentar contributos e apresentar reclamações se a proteção dos direitos fundamentais ou do interesse público estiver em risco. |
Alteração 53
Proposta de regulamento
Considerando 81
|
|
Texto da Comissão |
Alteração |
(81) O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado, de acordo com os requisitos do presente regulamento pode conduzir a uma maior utilização de inteligência artificial fiável na União. Os fornecedores de sistemas de IA que não são de risco elevado devem ser incentivados a criar códigos de conduta que visem promover a aplicação voluntária dos requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado. Os fornecedores devem ainda ser incentivados a aplicar voluntariamente requisitos adicionais relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento. A Comissão pode desenvolver iniciativas, incluindo de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiras de dados para o desenvolvimento da inteligência artificial, incluindo em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica de diferentes tipos de dados. |
(81) O desenvolvimento de outros sistemas de IA, que não sejam sistemas de IA de risco elevado, de acordo com os requisitos do presente regulamento deve conduzir a uma maior utilização de inteligência artificial fiável na União. Os fornecedores de sistemas de IA que não são de risco elevado devem ser incentivados a criar códigos de conduta que visem promover a aplicação voluntária dos requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado. Os fornecedores devem ainda ser incentivados a aplicar voluntariamente requisitos adicionais relacionados, por exemplo, com a adoção de uma abordagem baseada nos riscos em relação aos efeitos diretos e indiretos sobre a sustentabilidade ambiental, a eficiência energética e a intensidade de carbono, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento. A Comissão pode desenvolver iniciativas, incluindo de natureza setorial, para facilitar a redução de obstáculos técnicos que impeçam o intercâmbio transfronteiras de dados para o desenvolvimento da inteligência artificial, incluindo em matéria de infraestruturas de acesso aos dados e de interoperabilidade semântica e técnica de diferentes tipos de dados. |
Alteração 54
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Regras harmonizadas para a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial («sistemas de IA») na União; |
a) Regras harmonizadas destinadas a assegurar a proteção do interesse público, da saúde e da segurança dos consumidores e a proteção do ambiente para a colocação no mercado, a colocação em serviço e a utilização de sistemas de inteligência artificial («sistemas de IA») na União; |
Alteração 55
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 4‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
4‑A) «Destinatário final», uma pessoa singular ou coletiva, que não seja um operador, a quem se destina o resultado de um sistema de IA ou a quem esse resultado é fornecido; |
Alteração 56
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 14
|
|
Texto da Comissão |
Alteração |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens ou a proteção do clima e do ambiente; |
Alteração 57
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 15
|
|
Texto da Comissão |
Alteração |
15) «Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o utilizador, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA, incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado; |
15) «Instruções de utilização», as informações facultadas pelo fornecedor para esclarecer o utilizador e o destinatário final, em especial, sobre a finalidade prevista e a utilização correta de um sistema de IA, incluindo o enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado; |
Alteração 58
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 24‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
24‑B) «Rotulagem de IA ecológica», uma rotulagem através da qual são reconhecidos os sistemas de IA menos intensivos em carbono e mais eficientes em termos energéticos e que promove as técnicas e os procedimentos utilizados para uma melhor eficiência; |
Alteração 59
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 34
|
|
Texto da Comissão |
Alteração |
34) «Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos; |
34) «Sistema de reconhecimento de emoções», um sistema de IA concebido para identificar ou inferir emoções ou intenções de pessoas singulares com base nos seus dados biométricos ou neurológicos; |
Alteração 60
Proposta de regulamento
Artigo 5 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa; |
a) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que empregue técnicas subliminares e psicológicas que contornem a consciência de uma pessoa para distorcer substancialmente o seu comportamento de uma forma que cause ou seja suscetível de causar danos económicos, físicos ou psicológicos a essa ou a outra pessoa; |
Justificação
Não devem ser permitidas estratégias discriminatórias de otimização de preços baseadas na IA. Por exemplo: companhias de seguros que pretendam aumentar os preços de consumidores que os sistemas de IA considerem menos suscetíveis de mudar de seguradora.
Alteração 61
Proposta de regulamento
Artigo 5 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental, a fim de distorcer substancialmente o comportamento de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos físicos ou psicológicos a essa ou a outra pessoa; |
b) A colocação no mercado, a colocação em serviço ou a utilização de um sistema de IA que explore quaisquer vulnerabilidades de um grupo específico de pessoas associadas à sua idade ou deficiência física ou mental, incluindo dependência, luto ou perturbação, a fim de distorcer substancialmente o comportamento de uma pessoa pertencente a esse grupo de uma forma que cause ou seja suscetível de causar danos económicos, físicos ou psicológicos a essa ou a outra pessoa; |
Justificação
A proteção dos cidadãos vulneráveis deve incluir as pessoas que sofrem de vulnerabilidades temporárias, incluindo a dependência ou o luto, a fim de assegurar a proteção contra a utilização de perfis de persuasão baseados na IA utilizados, por exemplo, em sítios Web de encontros e jogos de azar.
Alteração 62
Proposta de regulamento
Artigo 7 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Os sistemas de IA destinam‑se a ser utilizados em qualquer um dos domínios enumerados no anexo III, pontos 1 a 8; |
a) Os sistemas de IA destinam‑se a ser utilizados em qualquer um dos domínios enumerados no anexo III, pontos 1 a 9; |
Alteração 63
Proposta de regulamento
Artigo 1 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso na atenuação das alterações climáticas e na adaptação a estas, no ambiente e nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
Alteração 64
Proposta de regulamento
Artigo 7 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso no clima, no ambiente ou nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
Alteração 65
Proposta de regulamento
Artigo 7 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso nos direitos fundamentais ou suscitou preocupações significativas quanto à concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes; |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso no clima, no ambiente e nos direitos fundamentais ou suscitou preocupações significativas quanto à concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes; |
Alteração 66
Proposta de regulamento
Artigo 7 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas; |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas, o ambiente e a biodiversidade; |
Alteração 67
Proposta de regulamento
Artigo 7 – n.º 2 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas em relação ao resultado produzido por um sistema de IA, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir‑se desse resultado; |
e) O grau de dependência das pessoas potencialmente lesadas ou adversamente afetadas, incluindo os destinatários finais, em relação ao resultado produzido por um sistema de IA, em especial se, por razões práticas ou jurídicas, aquelas não puderem razoavelmente autoexcluir‑se desse resultado; |
Alteração 68
Proposta de regulamento
Artigo 7 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) A posição de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido a um desequilíbrio de poder ou de conhecimento, a circunstâncias económicas ou sociais, ou à idade; |
f) A posição de vulnerabilidade das pessoas potencialmente prejudicadas ou adversamente afetadas em relação ao utilizador de um sistema de IA, nomeadamente devido a um desequilíbrio de poder ou de conhecimento, a circunstâncias económicas, ambientais ou sociais, ou à idade; |
Alteração 69
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com impacto na saúde ou na segurança das pessoas não podem ser considerados como facilmente reversíveis; |
g) A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com impacto adverso no clima, no ambiente e na biodiversidade ou com efeitos negativos na capacidade de alcançar as metas de redução das emissões de gases com efeito de estufa ou na saúde ou na segurança das pessoas não podem ser considerados como facilmente reversíveis; |
Alteração 70
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem levar a que o eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Os riscos residuais devem ser comunicados ao utilizador. |
As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem levar a que o eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Os riscos residuais devem ser comunicados ao utilizador e ao destinatário final. |
Alteração 71
Proposta de regulamento
Artigo 10 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado, incluindo os destinatários finais. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
Alteração 72
Proposta de regulamento
Artigo 10 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, ambiental, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
Alteração 73
Proposta de regulamento
Artigo 10 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Na medida do estritamente necessário para assegurar o controlo, a deteção e a correção de enviesamentos em relação a sistemas de IA de risco elevado, os fornecedores desses sistemas podem tratar categorias especiais de dados pessoais a que se refere o artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, o artigo 10.º da Diretiva (UE) 2016/680 e o artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração, tais como a pseudonimização ou a cifragem nos casos em que a anonimização possa afetar significativamente a finalidade preconizada. |
5. Na medida do estritamente necessário para assegurar o controlo, a deteção e a correção de enviesamentos em relação a sistemas de IA de risco elevado, bem como a não discriminação algorítmica, os fornecedores desses sistemas podem tratar categorias especiais de dados pessoais a que se refere o artigo 9.º, n.º 1, do Regulamento (UE) 2016/679, o artigo 10.º da Diretiva (UE) 2016/680 e o artigo 10.º, n.º 1, do Regulamento (UE) 2018/1725, assegurando salvaguardas adequadas dos direitos fundamentais e liberdades das pessoas singulares, incluindo impor limitações técnicas à reutilização e utilizar medidas de segurança e preservação da privacidade de última geração, tais como a pseudonimização ou a cifragem nos casos em que a anonimização possa afetar significativamente a finalidade preconizada. |
Alteração 74
Proposta de regulamento
Artigo 13 – título
|
|
Texto da Comissão |
Alteração |
Transparência e prestação de informações aos utilizadores |
Transparência e prestação de informações aos utilizadores e aos destinatários finais |
Alteração 75
Proposta de regulamento
Artigo 13 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores interpretar o resultado do sistema e utilizá‑lo corretamente. Deve ser garantido um tipo e um grau adequado de transparência, que permita cumprir as obrigações que incumbem ao utilizador e ao fornecedor por força do capítulo 3 do presente título. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que assegure que o seu funcionamento seja suficientemente transparente para permitir aos utilizadores e aos destinatários finais interpretar o resultado do sistema e utilizá‑lo corretamente. Deve ser garantido um tipo e um grau adequado de transparência, que permita cumprir as obrigações que incumbem ao utilizador, ao destinatário final e ao fornecedor por força do capítulo 3 do presente título. |
Alteração 76
Proposta de regulamento
Artigo 13 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores, nomeadamente no que se refere a eventuais riscos para os direitos fundamentais e de discriminação. |
Alteração 77
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança ou os direitos fundamentais, |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança, o ambiente ou os direitos fundamentais, |
Alteração 78
Proposta de regulamento
Artigo 13 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. Os sistemas de IA de risco elevado devem ser concebidos, desenvolvidos e utilizados de modo que os seus resultados sejam suficientemente transparentes, pertinentes, acessíveis e compreensíveis para os destinatários finais de acordo com a sua finalidade prevista. |
Alteração 79
Proposta de regulamento
Artigo 14 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
2. A supervisão humana deve procurar prevenir ou minimizar a desinformação e os riscos para a saúde, a segurança, o clima e o ambiente ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
Alteração 80
Proposta de regulamento
Artigo 14 – n.º 4 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar. |
e) Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar, desde que a função em causa do sistema de IA não seja afetada de forma a que constitua um risco para a saúde, a segurança ou os direitos fundamentais. |
Alteração 81
Proposta de regulamento
Artigo 26 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) O sistema ostenta a marcação de conformidade exigida e está acompanhado da documentação e das instruções de utilização necessárias. |
c) O sistema ostenta a marcação de conformidade exigida e está acompanhado da documentação e das instruções de utilização necessárias, concisas e claras, incluindo no que se refere aos eventuais riscos para os direitos fundamentais e de discriminação. |
Alteração 82
Proposta de regulamento
Artigo 43 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Em relação aos sistemas de IA de risco elevado enumerados no anexo III, pontos 2 a 8, os fornecedores devem seguir o procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI, que não prevê a participação de um organismo notificado. Em relação aos sistemas de IA de risco elevado referidos no anexo III, ponto 5, alínea b), que são colocados no mercado ou colocados em serviço por instituições de crédito regulamentadas pela Diretiva 2013/36/UE, a avaliação da conformidade deve ser realizada no âmbito do procedimento a que se referem os artigos 97.º a 101.º da mesma diretiva. |
2. Em relação aos sistemas de IA de risco elevado enumerados no anexo III, pontos 2 a 9, os fornecedores devem seguir o procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI, que não prevê a participação de um organismo notificado. Em relação aos sistemas de IA de risco elevado referidos no anexo III, ponto 5, alínea b), que são colocados no mercado ou colocados em serviço por instituições de crédito regulamentadas pela Diretiva 2013/36/UE, a avaliação da conformidade deve ser realizada no âmbito do procedimento a que se referem os artigos 97.º a 101.º da mesma diretiva. |
Alteração 83
Proposta de regulamento
Artigo 43 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança, o ambiente e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
Alteração 84
Proposta de regulamento
Artigo 52 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
1. Os fornecedores devem assegurar que os sistemas de IA destinados a interagir com pessoas singulares sejam concebidos e desenvolvidos de maneira que as pessoas singulares sejam informadas de que estão a interagir com um sistema de IA, sobretudo no setor da saúde, salvo se tal se revelar óbvio dadas as circunstâncias e o contexto de utilização. Esta obrigação não se aplica a sistemas de IA legalmente autorizados para detetar, prevenir, investigar e reprimir infrações penais, salvo se esses sistemas estiverem disponíveis ao público para denunciar uma infração penal. |
Alteração 85
Proposta de regulamento
Artigo 52 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. Os destinatários de um sistema de IA no domínio dos cuidados de saúde devem ser informados da sua interação com um sistema de IA. |
Alteração 86
Proposta de regulamento
Artigo 52 – n.º 3‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑B. As autoridades públicas e administrativas que adotem decisões com a assistência de sistemas de IA devem prestar uma explicação clara e inteligível. A explicação deve ser acessível a pessoas com deficiência e a outros grupos vulneráveis. |
Alteração 87
Proposta de regulamento
Artigo 53 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a atenuação das alterações climáticas, o ambiente, a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
Alteração 88
Proposta de regulamento
Artigo 53 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os participantes no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados‑Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem. |
4. Os participantes no ambiente de testagem da regulamentação da IA continuam a ser responsáveis, nos termos da legislação aplicável da União e dos Estados‑Membros em matéria de responsabilidade, por quaisquer danos infligidos a terceiros ou ao ambiente em resultado da experimentação que ocorre no ambiente de testagem. |
Alteração 89
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – subalínea ii)
|
|
Texto da Comissão |
Alteração |
ii) segurança pública e saúde pública, nomeadamente a prevenção, o controlo e o tratamento de doenças, |
ii) segurança pública e saúde pública, nomeadamente a deteção, o diagnóstico, a prevenção, o controlo e o tratamento de doenças, bem como os desafios sanitários relacionados com a interligação entre a saúde humana e a saúde animal, em especial as doenças zoonóticas, |
Alteração 90
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) elevado nível de proteção e melhoria da qualidade do ambiente; |
iii) elevado nível de proteção e melhoria da qualidade do ambiente, a proteção da biodiversidade, a poluição, bem como a atenuação das alterações climáticas e a adaptação às mesmas; |
Alteração 91
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – subalínea iii‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii‑A) o princípio da minimização dos dados deve ser respeitado, o que significa que a aquisição e o tratamento de dados devem ser limitados ao estritamente necessário à aplicação de inteligência artificial; |
Alteração 92
Proposta de regulamento
Artigo 56 – n.º 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Coordenar e contribuir para a elaboração de orientações e análises por parte da Comissão e das autoridades nacionais de controlo, bem como de outras autoridades competentes, sobre questões emergentes no mercado interno no tocante às matérias abrangidas pelo presente regulamento; |
b) Coordenar e contribuir para a elaboração de orientações e análises por parte da Comissão e das autoridades nacionais de controlo, bem como de grupos consultivos e de peritos, nomeadamente organizações da sociedade civil, como organizações não governamentais, associações de consumidores e representantes da indústria, e de outras autoridades competentes, sobre questões emergentes no mercado interno no tocante às matérias abrangidas pelo presente regulamento; |
Alteração 93
Proposta de regulamento
Artigo 57 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, incluindo as que são membros de grupos consultivos e de peritos competentes a nível da União, sempre que as questões debatidas sejam pertinentes para as mesmas. |
Alteração 94
Proposta de regulamento
Artigo 57 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
4. O Comité pode convidar peritos, especialistas em ética e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, incluindo organizações da sociedade civil, nomeadamente organizações não governamentais, associações de consumidores, grupos e organizações intergovernamentais defensores dos direitos humanos e representantes da indústria, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos de peritos competentes da União. |
Alteração 95
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Recolher e partilhar conhecimentos técnicos e boas práticas entre Estados‑Membros; |
a) Recolher e partilhar conhecimentos técnicos e regulamentares e boas práticas entre Estados‑Membros; |
Justificação
Deve ser especificado que são considerados tanto os pontos de vista técnicos como os pontos de vista regulamentares.
Alteração 96
Proposta de regulamento
Artigo 58 – parágrafo 1 – alínea c‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c‑A) Assegurar que haja uma abordagem comum e coerente entre os diferentes grupos consultivos e de peritos criados a nível da União para as questões abrangidas pelo presente regulamento ou relacionadas com sistemas de IA. |
Alteração 97
Proposta de regulamento
Artigo 59 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Cada Estado‑Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade e a imparcialidade das suas atividades e funções. |
1. Cada Estado‑Membro deve criar ou designar autoridades nacionais competentes a fim de assegurar a aplicação e execução do presente regulamento e da legislação horizontal da União. As autoridades nacionais competentes devem estar organizadas de modo que garanta a objetividade, a coerência e a imparcialidade das suas atividades e funções, a fim de evitar conflitos de interesses. |
Alteração 98
Proposta de regulamento
Artigo 59 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os Estados‑Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. |
4. Os Estados‑Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, da proteção de dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde, a segurança e o ambiente, bem como conhecimento das normas e dos requisitos legais em vigor. |
Alteração 99
Proposta de regulamento
Artigo 62 – n.º 1 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os fornecedores de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves ou anomalias desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger os direitos fundamentais às autoridades de fiscalização do mercado dos Estados‑Membros onde esse incidente ou incumprimento ocorrer. |
Os fornecedores de sistemas de IA de risco elevado colocados no mercado da União devem comunicar quaisquer incidentes graves ou anomalias desses sistemas que constituam um incumprimento de obrigações impostas pela legislação da União destinada a proteger a saúde, a segurança, os direitos fundamentais e o ambiente às autoridades de fiscalização do mercado dos Estados‑Membros onde esse incidente ou incumprimento ocorrer. |
Alteração 100
Proposta de regulamento
Artigo 65 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Entende‑se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.º, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde e a segurança ou para a proteção dos direitos fundamentais das pessoas. |
1. Entende‑se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.º, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde e a segurança, a proteção dos consumidores e do ambiente ou a proteção dos direitos fundamentais das pessoas. |
Alteração 101
Proposta de regulamento
Artigo 67 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, a autoridade de fiscalização do mercado de um Estado‑Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, a autoridade de fiscalização do mercado de um Estado‑Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o ambiente, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
Alteração 102
Proposta de regulamento
Artigo 69 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A Comissão e o Comité devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária a sistemas de IA de requisitos relacionados, por exemplo, com a sustentabilidade ambiental, a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA e a diversidade das equipas de desenvolvimento, com base em objetivos claros e indicadores‑chave de desempenho que permitam medir a consecução desses objetivos. |
2. A Comissão e o Comité devem incentivar e facilitar a elaboração de códigos de conduta destinados a fomentar a aplicação voluntária a sistemas de IA de requisitos relacionados com um código europeu para a eficiência energética dos centros de dados, que deve conter indicadores‑chave relacionados com a sustentabilidade ambiental, a utilização dos recursos, a eficiência energética e a intensidade de carbono, a proporção de energia produzida a partir de fontes de energia renováveis e a reutilização de qualquer calor ou resíduos. Tal poderia ser alargado para incentivar a acessibilidade das pessoas com deficiência, a participação das partes interessadas na conceção e no desenvolvimento de sistemas de IA, bem como a diversidade das equipas de desenvolvimento, com base em objetivos claros e indicadores‑chave de desempenho que permitam medir a consecução desses objetivos. A fim de promover a aplicação voluntária das avaliações ambientais, a Comissão deve desenvolver, por meio de um ato de execução, um procedimento, uma metodologia, normas mínimas e uma escala para facilitar a divulgação de informações sobre a energia utilizada na formação e execução de sistemas de IA e a sua intensidade carbónica, a fim de promover o desenvolvimento de sistemas de IA energeticamente eficientes e hipocarbónicos, os quais devem ser aplicáveis a todos os sistemas de IA numa base voluntária. Esses sistemas de IA que participam voluntariamente devem incluir essas informações na documentação técnica referida no artigo 11.º. |
Alteração 103
Proposta de regulamento
Artigo 84 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. No prazo de ... [dois anos a contar da data de aplicação do presente regulamento referida no artigo 85.º, n.º 2] e subsequentemente de dois em dois anos, a Comissão avalia o impacto ambiental e a eficácia do presente regulamento em relação à utilização de energia ou a outro impacto ambiental dos sistemas de IA. Até janeiro de 2050, a Comissão apresenta uma proposta de regulação da eficiência energética com vista a assegurar a plena descarbonização das tecnologias de IA . |
Alteração 104
Proposta de regulamento
Anexo I – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Abordagens de aprendizagem automática, incluindo aprendizagem supervisionada, não supervisionada e por reforço, utilizando uma grande variedade de métodos, designadamente aprendizagem profunda; |
a) Abordagens de aprendizagem automática, incluindo aprendizagem supervisionada, não supervisionada, por reforço e descoberta científica computacional, utilizando uma grande variedade de métodos, designadamente aprendizagem profunda; |
Alteração 105
Proposta de regulamento
Anexo III – parágrafo 1 – n.º 5 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência, bem como para conceder, reduzir, revogar ou recuperar tais prestações e serviços; |
a) Sistemas de IA concebidos para serem utilizados por autoridades públicas ou em nome de autoridades públicas para avaliar a elegibilidade de pessoas singulares quanto a prestações e serviços públicos de assistência, incluindo serviços de saúde e a literacia no domínio da saúde, bem como para conceder, reduzir, revogar ou recuperar tais prestações e serviços; |
Alteração 106
Proposta de regulamento
Anexo III – parágrafo 1 – n.º 8‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
8‑A. Saúde, cuidados de saúde, cuidados continuados e seguro de saúde: |
|
a) Sistemas de IA não abrangidos pelo Regulamento (UE) 2017/745 destinados a ser utilizados nos setores da saúde, dos cuidados de saúde e dos cuidados continuados que tenham efeitos indiretos e diretos na saúde ou que utilizem dados de saúde sensíveis; |
|
b) Sistemas administrativos e de gestão de inteligência artificial utilizados por profissionais de saúde em hospitais e noutros contextos de cuidados de saúde e por companhias de seguros de saúde que tratem dados sensíveis sobre a saúde das pessoas; |
Justificação
A proposta parte do pressuposto de que todas as aplicações de IA utilizadas no contexto da saúde são abrangidas pelo Regulamento (UE) 2017/745. No entanto, o presente regulamento abrange apenas dispositivos médicos e software com uma finalidade médica prevista, como o tratamento de doentes, o que exclui aplicações de IA relacionadas com a saúde (por exemplo, aplicações para rastreio de medicamentos) e sistemas administrativos de IA utilizados por médicos em hospitais ou noutro contexto de saúde que ainda colocam novos desafios e eventuais riscos para as pessoas, devido aos seus efeitos na saúde ou à utilização de dados sensíveis sobre a saúde e as escolhas de vida.
Alteração 107
Proposta de regulamento
Anexo IV – parágrafo 1 – n.º 1 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Instruções de utilização para o utilizador e, se for caso disso, instruções de instalação; |
g) Instruções de utilização claras e concisas para o utilizador e para o destinatário final, nomeadamente em relação a eventuais riscos para os direitos fundamentais e de discriminação, e, se for caso disso, instruções de instalação; |
Alteração 108
Proposta de regulamento
Anexo IV – parágrafo 1 – n.º 2 – alínea g‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
g‑A) A complexidade computacional do sistema e os seus componentes de software, a sua utilização de dados, incluindo a validação e testes dos sistemas. |
Alteração 109
Proposta de regulamento
Anexo IV – parágrafo 1 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Informações pormenorizadas sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores; especificações relativas aos dados de entrada, consoante apropriado; |
3. Informações pormenorizadas e plenamente acessíveis sobre o acompanhamento, o funcionamento e o controlo do sistema de IA, especialmente no que diz respeito: às suas capacidades e limitações de desempenho, incluindo os níveis de exatidão no tocante a pessoas ou grupos de pessoas específicos em relação às quais se pretende que o sistema seja utilizado e o nível geral esperado de exatidão em relação à finalidade prevista; os resultados não pretendidos mas previsíveis e as fontes de riscos para o ambiente, a saúde e a segurança, os direitos fundamentais e a proteção contra a discriminação atendendo à finalidade prevista do sistema de IA; as medidas de supervisão humana necessárias em conformidade com o artigo 14.º, incluindo as soluções técnicas adotadas para facilitar a interpretação dos resultados dos sistemas de IA pelos utilizadores; especificações relativas aos dados de entrada, consoante apropriado; |
PROCESSO DA COMISSÃO ENCARREGADA DE EMITIR PARECER
Título |
Regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e alteração de determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD) |
|||
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Parecer emitido por Data de comunicação em sessão |
ENVI 7.6.2021 |
|||
Relator(a) de parecer Data de designação |
Susana Solís Pérez 15.9.2021 |
|||
Artigo 58.º – Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
13.1.2022 |
|
|
|
Data de aprovação |
15.3.2022 |
|
|
|
Resultado da votação final |
+: –: 0: |
67 4 15 |
||
Deputados presentes no momento da votação final |
Mathilde Androuët, Nikos Androulakis, Bartosz Arłukowicz, Margrete Auken, Simona Baldassarre, Marek Paweł Balt, Traian Băsescu, Aurélia Beigneux, Monika Beňová, Hildegard Bentele, Sergio Berlato, Alexander Bernhuber, Malin Björk, Simona Bonafè, Delara Burkhardt, Pascal Canfin, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Nathalie Colin‑Oesterlé, Esther de Lange, Christian Doleschal, Marco Dreosto, Bas Eickhout, Cyrus Engerer, Cornelia Ernst, Eleonora Evi, Agnès Evren, Pietro Fiocchi, Raffaele Fitto, Malte Gallée, Andreas Glück, Catherine Griset, Jytte Guteland, Teuvo Hakkarainen, Anja Hazekamp, Martin Hojsík, Pär Holmgren, Jan Huitema, Yannick Jadot, Adam Jarubas, Petros Kokkalis, Athanasios Konstantinou, Ewa Kopacz, Joanna Kopcińska, Peter Liese, Sylvia Limmer, Javi López, César Luena, Fulvio Martusciello, Liudas Mažylis, Joëlle Mélin, Tilly Metz, Silvia Modig, Dolors Montserrat, Alessandra Moretti, Dan‑Ştefan Motreanu, Ville Niinistö, Ljudmila Novak, Grace O’Sullivan, Jutta Paulus, Stanislav Polčák, Jessica Polfjärd, Nicola Procaccini, Luisa Regimenti, Frédérique Ries, María Soraya Rodríguez Ramos, Sándor Rónai, Rob Rooken, Silvia Sardone, Christine Schneider, Günther Sidl, Ivan Vilibor Sinčić, Linea Søgaard‑Lidell, Maria Spyraki, Nils Torvalds, Edina Tóth, Véronique Trillet‑Lenoir, Petar Vitanov, Alexandr Vondra, Mick Wallace, Emma Wiesner, Michal Wiezik, Tiemo Wölken, Anna Zalewska |
|||
Suplentes presentes no momento da votação final |
Maria Arena, Marlene Mortler, Susana Solís Pérez |
VOTAÇÃO NOMINAL FINAL
NA COMISSÃO ENCARREGADA DE EMITIR PARECER
67 |
+ |
NI |
Edina Tóth |
EPP |
Bartosz Arłukowicz, Traian Băsescu, Hildegard Bentele, Alexander Bernhuber, Nathalie Colin‑Oesterlé, Christian Doleschal, Agnès Evren, Adam Jarubas, Ewa Kopacz, Esther de Lange, Peter Liese, Fulvio Martusciello, Liudas Mažylis, Dolors Montserrat, Marlene Mortler, Dan‑Ştefan Motreanu, Ljudmila Novak, Stanislav Polčák, Jessica Polfjärd, Luisa Regimenti, Christine Schneider, Maria Spyraki |
Renew |
Pascal Canfin, Andreas Glück, Martin Hojsík, Jan Huitema, Frédérique Ries, María Soraya Rodríguez Ramos, Susana Solís Pérez, Linea Søgaard‑Lidell, Nils Torvalds, Véronique Trillet‑Lenoir, Emma Wiesner, Michal Wiezik |
S&D |
Nikos Androulakis, Maria Arena, Marek Paweł Balt, Monika Beňová, Simona Bonafè, Delara Burkhardt, Sara Cerdas, Mohammed Chahim, Tudor Ciuhodaru, Cyrus Engerer, Jytte Guteland, Javi López, César Luena, Alessandra Moretti, Sándor Rónai, Günther Sidl, Tiemo Wölken |
The Left |
Malin Björk, Anja Hazekamp, Petros Kokkalis, Silvia Modig, Mick Wallace |
Verts/ALE |
Margrete Auken, Bas Eickhout, Eleonora Evi, Malte Gallée, Pär Holmgren, Yannick Jadot, Tilly Metz, Ville Niinistö, Grace O'Sullivan, Jutta Paulus |
4 |
‑ |
ID |
Simona Baldassarre, Marco Dreosto, Sylvia Limmer, Silvia Sardone |
15 |
0 |
ECR |
Sergio Berlato, Pietro Fiocchi, Raffaele Fitto, Joanna Kopcińska, Nicola Procaccini, Rob Rooken, Alexandr Vondra, Anna Zalewska |
ID |
Mathilde Androuët, Aurélia Beigneux, Catherine Griset, Teuvo Hakkarainen, Joëlle Mélin |
NI |
Athanasios Konstantinou, Ivan Vilibor Sinčić |
Legenda dos símbolos utilizados:
+ : votos a favor
‑ : votos contra
0 : abstenções
PARECER DA COMISSÃO DOS TRANSPORTES E DO TURISMO (12.7.2022)
dirigido à Comissão do Mercado Interno e da Proteção dos Consumidores e à Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos
sobre a proposta de regulamento do Parlamento Europeu e do Conselho que estabelece regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e altera determinados atos legislativos da União
(COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD))
Relatora de parecer: Josianne Cutajar
JUSTIFICAÇÃO SUCINTA
A relatora apoia o desenvolvimento de um quadro legislativo da UE em matéria de inteligência artificial enquanto passo necessário para garantir que a União se torne líder neste domínio, defendendo simultaneamente os nossos valores europeus. A abordagem horizontal baseada no risco do Regulamento Inteligência Artificial criará um sistema em que as regras se aplicarão exclusivamente a aplicações de sistemas de IA em que possam surgir ameaças. Esta abordagem seletiva permitirá à União continuar a desenvolver o seu setor da IA sem prejudicar a evolução tecnológica e a transformação digital.
O setor dos transportes é um setor que poderia beneficiar em grande medida da integração de sistemas de IA nas suas operações quotidianas e logística. A aplicação de sistemas de IA pode contribuir para a concretização dos objetivos da UE para este setor a nível ambiental e de segurança e, em alguns casos, também a nível societal. Por conseguinte, a União deve procurar eliminar os obstáculos existentes que impedem o desenvolvimento e o investimento, nomeadamente a fragmentação e a incerteza jurídicas, que prejudicam as empresas e os clientes.
Os elementos principais do parecer consistem nas seguintes medidas:
Velar por que o Regulamento Inteligência Artificial não se sobreponha à legislação setorial através da imposição de obrigações duplas/contraditórias aos intervenientes no setor dos transportes;
Promover a elaboração e o respeito das normas internacionais, que são particularmente importantes para o setor dos transportes;
Fomentar a investigação e a inovação para garantir que o setor dos transportes da UE desenvolva as suas próprias competências na aplicação da IA, respeitando simultaneamente as mais elevadas normas éticas.
A abordagem geral adotada pela relatora passou por dar voz às opiniões expressas pelo setor dos transportes sobre o Regulamento Inteligência Artificial. Por este motivo, as alterações tiveram de ser cuidadosamente redigidas no âmbito da esfera de competências da Comissão TRAN, tarefa que se revela complicada quando se trata de legislação harmonizada. Ainda assim, a relatora considera que, nos casos em que as disposições horizontais afetam claramente os transportes, a Comissão TRAN deve ter uma palavra a dizer. Além disso, foram elaboradas algumas alterações que visam clarificar as mensagens principais do relatório da Comissão, designadamente no caso da definição dos conceitos de «sistemas de IA» e de «risco elevado», que são essenciais para o setor dos transportes.
Na sequência das fases de consulta e de investigação efetuadas para a elaboração do presente parecer, surgiram três questões evidentes do ponto de vista da Comissão TRAN. Em primeiro lugar, a cada segmento do setor dos transportes já se aplicam, em diferentes graus e formas, legislação, disposições ou iniciativas setoriais para garantir o mais elevado nível de segurança no que diz respeito à integração de sistemas de IA. Os setores do transporte aéreo, rodoviário, ferroviário e marítimo exigem medidas setoriais específicas, a fim de assegurar uma gestão eficaz das operações e dos serviços, garantindo ao mesmo tempo o mais elevado nível de segurança. A legislação harmonizada pode ficar aquém das medidas necessárias para garantir a segurança no setor. Por este motivo, era fundamental salientar, no Regulamento Inteligência Artificial, a necessidade de respeitar a legislação setorial, que, em alguns casos, deverá inclusivamente prevalecer sobre as regras harmonizadas. Foi efetivamente esta a intenção da Comissão, tal como resulta claramente do anexo II, parte B. Porém, o texto carecia de mais pormenores.
Em segundo lugar, outro elemento fundamental que emanou da avaliação prende‑se com o facto de, devido à natureza internacional dos transportes, já se encontrarem em curso procedimentos internacionais para elaborar normas e orientações globais relativas à segurança dos sistemas de IA para cada setor. Por conseguinte, seria preferível que essas normas globais fossem respeitadas e incorporadas na legislação e nas normas da UE. De um modo geral, as normas da UE são elaboradas por meio de acordos formais entre as organizações europeias de normalização (OEN) e as organizações internacionais de normalização, o que lhes permite, na prática, trabalhar em conjunto. Não obstante, a fim de preservar a competitividade do setor dos transportes da UE em relação a outras regiões, a linguagem e as disposições do Regulamento Inteligência Artificial tiveram de ser reforçadas, de molde a garantir que as disposições em matéria de IA aplicáveis ao setor dos transportes respeitem as normas e padrões internacionais.
Por último, a investigação e o desenvolvimento são o motor da digitalização de todos os setores, já para não falar dos transportes. As novas regras harmonizadas em matéria de IA não devem entravar a investigação nos casos em que esta se limite a ambientes controlados e o sistema de IA estudado não seja colocado no mercado. Por este motivo, inclui‑se um aditamento visando clarificar o âmbito de aplicação a este respeito. Note‑se que a proposta da Comissão apresenta medidas de apoio à inovação em artigos específicos sobre ambientes de testagem e fornecedores de pequena dimensão. No entanto, neste caso, a relatora inclui uma alteração destinada a garantir que as pequenas e médias empresas (PME) possam beneficiar das medidas previstas nessas disposições.
Outras alterações menores apresentadas pela relatora dizem respeito à transparência dos algoritmos utilizados no âmbito do trabalho no setor dos transportes (refletindo simplesmente a linguagem utilizada pela Comissão no anexo III), à compreensão da supervisão humana no contexto dos transportes e à clarificação sobre os erros nos conjuntos de dados.
ALTERAÇÕES
A Comissão dos Transportes e do Turismo insta a Comissão do Mercado Interno e da Proteção dos Consumidores e a Comissão das Liberdades Cívicas, da Justiça e dos Assuntos Internos, competentes quanto à matéria de fundo, a terem em conta as seguintes alterações:
Alteração 1
Proposta de regulamento
Considerando 1
|
|
Texto da Comissão |
Alteração |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança e dos direitos fundamentais, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados‑Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
(1) A finalidade do presente regulamento é melhorar o funcionamento do mercado interno mediante o estabelecimento de um quadro jurídico uniforme para o desenvolvimento, a comercialização e a utilização da inteligência artificial em conformidade com os valores da União. O presente regulamento observa um conjunto de razões imperativas de reconhecido interesse público, como o elevado nível de proteção da saúde, da segurança, dos direitos fundamentais e do ambiente, e assegura a livre circulação transfronteiras de produtos e serviços baseados em inteligência artificial, evitando assim que os Estados‑Membros imponham restrições ao desenvolvimento, à comercialização e à utilização dos sistemas de inteligência artificial, salvo se explicitamente autorizado pelo presente regulamento. |
Alteração 2
Proposta de regulamento
Considerando 5
|
|
Texto da Comissão |
Alteração |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna‑se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
(5) Como tal, é necessário adotar um quadro jurídico da União que estabeleça regras harmonizadas em matéria de inteligência artificial para promover o desenvolvimento, a utilização e a adoção da inteligência artificial no mercado interno e que, ao mesmo tempo, proporcione um nível elevado de proteção de interesses públicos, como a saúde e a segurança, o ambiente e a proteção dos direitos fundamentais, conforme reconhecido e protegido pelo direito da União. Para alcançar esse objetivo, torna‑se necessário estabelecer regras aplicáveis à colocação no mercado e à colocação em serviço de determinados sistemas de IA, garantindo assim o correto funcionamento do mercado interno e permitindo que esses sistemas beneficiem do princípio de livre circulação dos produtos e dos serviços. Ao estabelecer essas regras, o presente regulamento apoia o objetivo da União de estar na vanguarda mundial do desenvolvimento de uma inteligência artificial que seja segura, ética e de confiança, conforme mencionado pelo Conselho Europeu33 e garante a proteção de princípios éticos, conforme solicitado especificamente pelo Parlamento Europeu34. |
__________________ |
__________________ |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
33 Conselho Europeu, Reunião extraordinária do Conselho Europeu (1 e 2 de outubro de 2020) — Conclusões [EUCO 13/20, 2020, p. 6]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
34 Resolução do Parlamento Europeu, de 20 de outubro de 2020, que contém recomendações à Comissão sobre o regime relativo aos aspetos éticos da inteligência artificial, da robótica e das tecnologias conexas [2020/2012(INL)]. |
Alteração 3
Proposta de regulamento
Considerando 5‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(5‑A) A legislação da União em matéria de inteligência artificial deve contribuir para a dupla transição ecológica e digital. A inteligência artificial pode contribuir positivamente para a transição ecológica, mas também tem impactos ambientais significativos devido às matérias‑primas essenciais necessárias para conceber e construir as suas infraestruturas e microprocessadores e à energia utilizada para o seu desenvolvimento, formação, aperfeiçoamento e utilização. Por conseguinte, o desenvolvimento e a utilização da IA devem ser compatíveis com recursos ambientais sustentáveis em todas as fases do ciclo de vida dos sistemas de IA. Deve também evitar‑se a aquisição e o tratamento desnecessários de dados. Além disso, a legislação da União em matéria de inteligência artificial deve ser acompanhada de medidas destinadas a eliminar os principais obstáculos à transformação digital da economia. Essas medidas devem centrar‑se na educação, na melhoria de competências e na requalificação dos trabalhadores, na promoção do investimento na investigação e na inovação, e no reforço da segurança no contexto digital, em consonância com as iniciativas destinadas a alcançar os objetivos da Década Digital. A transformação digital deve ocorrer de forma harmonizada em todas as regiões, prestando‑se especial atenção às zonas da União menos desenvolvidas do ponto de vista digital. |
Alteração 4
Proposta de regulamento
Considerando 5‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(5‑B) Uma legislação harmonizada da União em matéria de inteligência artificial pode contribuir para criar segurança jurídica e coerência em toda a União. No entanto, devido aos riscos associados ao transporte de passageiros e de mercadorias, o setor foi cuidadosamente supervisionado e regulamentado para evitar incidentes e a perda de vidas humanas. O quadro jurídico da União para o setor dos transportes prevê legislação setorial para o transporte aéreo, rodoviário, ferroviário e marítimo. Com a integração progressiva dos sistemas de IA no setor, poderão surgir novos desafios no âmbito da gestão dos riscos. O presente regulamento só deverá abranger as aplicações de risco elevado no setor dos transportes se estas não estiverem já abrangidas pela legislação setorial em vigor e puderem ter um impacto negativo no ambiente ou na saúde, na segurança e nos direitos fundamentais das pessoas. Por conseguinte, deve evitar‑se a dupla regulamentação. |
Alteração 5
Proposta de regulamento
Considerando 5‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
(5‑C) O setor da aviação da União, por exemplo, através do trabalho da Agência Europeia para a Segurança da Aviação (AESA) e das suas partes interessadas, tem vindo a desenvolver gradualmente as suas próprias orientações e normas sobre a aplicação e a gestão da segurança dos sistemas de IA na aviação. No roteiro da AESA para a IA, os sistemas de IA com aplicação na aviação estão classificados em três níveis distintos, desde a assistência ao ser humano e à cooperação homem‑máquina até à plena automatização. É necessário um controlo setorial específico dos sistemas de IA que estabeleça normas para assegurar o nível mais elevado de segurança da aviação, preservando simultaneamente a competitividade das empresas da União a nível mundial. |
Alteração 6
Proposta de regulamento
Considerando 6
|
|
Texto da Comissão |
Alteração |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve basear‑se nas principais características funcionais do software, em particular a capacidade, tendo em vista um determinado conjunto de objetivos definidos pelos seres humanos, de criar resultados, tais como conteúdos, previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
(6) A definição de «sistema de IA» deve ser inequívoca, para assegurar a segurança jurídica, concedendo em simultâneo a flexibilidade suficiente para se adaptar a futuras evoluções tecnológicas. A definição deve basear‑se nas principais características funcionais do software, e possivelmente também do hardware1‑A. Em particular, para efeitos do presente regulamento, os sistemas de IA devem ser concebidos como sistemas dotados da capacidade de inferir, com base em dados, inclusive de entrada, provenientes de máquinas e/ou de seres humanos, a forma de alcançar um determinado conjunto de objetivos definidos por seres humanos, através da aprendizagem, do raciocínio ou da modelização, bem como de criar resultados específicos sob a forma de conteúdos para sistemas de IA generativa e de formular previsões, recomendações ou decisões que influenciam o ambiente com o qual o sistema interage, quer numa dimensão física, quer digital. Os sistemas de IA podem ser concebidos para operar com diferentes níveis de autonomia e ser utilizados autonomamente ou como componente de um produto, independentemente de o sistema estar fisicamente incorporado no produto (integrado) ou servir a funcionalidade do produto sem estar incorporado nele (não integrado). A definição de «sistema de IA» deve ser completada por uma lista de técnicas e abordagens específicas utilizadas para o seu desenvolvimento, que deve ser atualizada face à evolução do mercado e da tecnologia, mediante a adoção de atos delegados da Comissão que alterem essa lista. |
|
__________________ |
|
1‑A https://digital‑strategy.ec.europa.eu/en/library/definition‑artificial‑intelligence‑main‑capabilities‑and‑scientific‑disciplines |
Alteração 7
Proposta de regulamento
Considerando 8‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(8‑A) A utilização de sistemas biométricos e de alta tecnologia nos transportes e no turismo poderá melhorar em grande medida a experiência dos utilizadores e a segurança e proteção gerais. O presente regulamento deve acompanhar esta evolução fixando o nível de proteção mais elevado, em especial quando está em causa a utilização de dados biométricos, em conformidade com o quadro de proteção de dados da União, promovendo simultaneamente a investigação e o investimento tendo em vista o desenvolvimento e a implantação de sistemas de IA que possam ser um contributo positivo para a sociedade. |
Alteração 8
Proposta de regulamento
Considerando 12‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(12‑A) O presente regulamento deve apoiar a investigação e a inovação para a aplicação dos sistemas de IA nos setores dos transportes e do turismo, garantindo, ao mesmo tempo, um nível elevado de proteção dos interesses públicos, como a saúde, a segurança, os direitos fundamentais, o ambiente e a democracia. Por este motivo, o regulamento deve excluir do seu âmbito de aplicação as aplicações de sistemas de IA desenvolvidos, aplicados e avaliados num ambiente de ensaio controlado com o único objetivo de avaliar a sua utilização e funcionalidade. No que diz respeito à atividade de investigação orientada para os produtos por parte dos fornecedores, as disposições do presente regulamento devem aplicar‑se na medida em que essa investigação conduza à colocação de um sistema de IA no mercado ou à sua entrada em serviço ou implique a sua colocação no mercado ou entrada em serviço. Toda e qualquer atividade de investigação e desenvolvimento deve ser realizada em conformidade com as mais elevadas normas éticas em matéria de investigação científica. |
Alteração 9
Proposta de regulamento
Considerando 13
|
|
Texto da Comissão |
Alteração |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança e dos direitos fundamentais, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. |
(13) A fim de assegurar um nível elevado e coerente de proteção dos interesses públicos nos domínios da saúde, da segurança, dos direitos fundamentais e do ambiente, devem ser criadas normas comuns aplicáveis a todos os sistemas de IA de risco elevado. Essas normas devem ser coerentes com a Carta dos Direitos Fundamentais da União Europeia (a seguir designada por «Carta») e não discriminatórias, bem como estar em consonância com os compromissos comerciais internacionais da União. Este aspeto reveste‑se de especial importância no setor dos transportes, a fim de assegurar o mais elevado nível de interoperabilidade entre os veículos, as infraestruturas e os sistemas inteligentes do setor, bem como para garantir a segurança e a proteção. A União e os seus organismos de normalização devem participar ativamente na elaboração de normas mundiais para os diferentes modos de transporte, a fim de as alinhar, tanto quanto possível, com as normas europeias aplicáveis e de assegurar a sua conformidade com o direito da União. A revisão regular do presente regulamento deverá ter em conta normas atualizadas para o setor dos transportes. |
Alteração 10
Proposta de regulamento
Considerando 17‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(17‑A) A utilização da IA no trabalho pode ser vantajosa tanto para a gestão como para as operações de uma empresa, apoiando os trabalhadores no desempenho das suas tarefas e melhorando a segurança no local de trabalho. Contudo, a aplicação dos sistemas de IA à gestão dos trabalhadores, em particular através de plataformas de trabalho digitais, inclusive no domínio dos transportes, pode implicar uma série de riscos de classificação social injusta/desnecessária, enraizada em conjuntos de dados tendenciosos ou práticas de vigilância intrusiva, o que pode conduzir a violações dos direitos laborais e dos direitos fundamentais das pessoas. O presente regulamento deve, por conseguinte, ter por objetivo proteger os direitos dos trabalhadores do setor dos transportes geridos com a assistência de sistemas de IA, como os que operam através de plataformas de trabalho digitais, e promover a transparência, a equidade e a responsabilização na gestão algorítmica, a fim de assegurar que os trabalhadores tenham uma ampla compreensão do modo como os algoritmos funcionam, dos dados pessoais que são emitidos e da forma como o seu comportamento afeta as decisões tomadas por sistemas automatizados. |
Alteração 11
Proposta de regulamento
Considerando 17‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
(17‑B) Além disso, os utilizadores e as pessoas devem ter o direito a opor‑se a uma decisão tomada exclusivamente por um sistema de IA, ou dependente em grande medida do resultado de um sistema de IA, que produza efeitos jurídicos a seu respeito ou que os afetem de modo igualmente significativo. |
Alteração 12
Proposta de regulamento
Considerando 27
|
|
Texto da Comissão |
Alteração |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar‑se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
(27) Os sistemas de IA de risco elevado só podem ser colocados no mercado da União ou colocados em serviço se cumprirem determinados requisitos obrigatórios. Esses requisitos devem assegurar que os sistemas de IA de risco elevado disponíveis na União ou cujos resultados sejam utilizados na União não representam riscos inaceitáveis para interesses públicos importantes da União, conforme reconhecidos e protegidos pelo direito da União. A classificação de «risco elevado» aplicada a sistemas de IA deve limitar‑se aos sistemas que têm um impacto prejudicial substancial na saúde, na segurança e nos direitos fundamentais das pessoas no território da União ou no ambiente e essa limitação deve minimizar quaisquer potenciais restrições ao comércio internacional, se for caso disso. |
Alteração 13
Proposta de regulamento
Considerando 29
|
|
Texto da Comissão |
Alteração |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40, do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho46, é adequado alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem interferir com os mecanismos de governação, de avaliação da conformidade e de execução existentes nem com as autoridades estabelecidas nestes regulamentos. |
(29) Relativamente aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito do Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho39, do Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho40, do Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho41, da Diretiva 2014/90/UE do Parlamento Europeu e do Conselho42, da Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho43, do Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho44, do Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho45 e do Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho46, é adequado, se necessário, alterar esses atos para assegurar que a Comissão tenha em conta, aquando da adoção de futuros atos delegados ou de execução baseados nesses atos, os requisitos obrigatórios aplicáveis aos sistemas de IA de risco elevado estabelecidos no presente regulamento, atendendo às especificidades técnicas e regulamentares de cada setor e sem sobreposições com os mecanismos de governação, de avaliação da conformidade e de execução existentes nem com as autoridades estabelecidas nestes regulamentos. A legislação setorial em vigor no setor dos transportes deve prevalecer sobre o presente regulamento, e deve garantir‑se que não existem sobreposições incompatíveis entre o presente regulamento e outros atos jurídicos atuais ou futuros (por exemplo, o Regulamento Dados e a revisão do STI), de modo a evitar a duplicação das obrigações para os fornecedores e os fabricantes, o que causaria insegurança jurídica para as empresas e atrasaria a adoção de novas tecnologias no mercado. O presente regulamento deverá igualmente prever um mecanismo de revisão eficaz, por forma a ter em conta a evolução tecnológica futura e assegurar uma aplicação justa, proporcionada e específica. A fim de evitar um grau considerável de insegurança jurídica e de assegurar que o presente regulamento seja aplicável a todos os setores por ele afetados sem atrasos indevidos, esses atos devem ser alterados de modo a integrar as disposições do presente regulamento o mais tardar 24 meses após a sua entrada em vigor. |
__________________ |
__________________ |
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
39 Regulamento (CE) n.º 300/2008 do Parlamento Europeu e do Conselho, de 11 de março de 2008, relativo ao estabelecimento de regras comuns no domínio da segurança da aviação civil e que revoga o Regulamento (CE) n.º 2320/2002 (JO L 97 de 9.4.2008, p. 72). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
40 Regulamento (UE) n.º 167/2013 do Parlamento Europeu e do Conselho, de 5 de fevereiro de 2013, relativo à homologação e fiscalização do mercado de tratores agrícolas e florestais (JO L 60 de 2.3.2013, p. 1). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
41 Regulamento (UE) n.º 168/2013 do Parlamento Europeu e do Conselho, de 15 de janeiro de 2013, relativo à homologação e fiscalização do mercado dos veículos de duas ou três rodas e dos quadriciclos (JO L 60 de 2.3.2013, p. 52). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
42 Diretiva 2014/90/UE do Parlamento Europeu e do Conselho, de 23 de julho de 2014, relativa aos equipamentos marítimos e que revoga a Diretiva 96/98/CE do Conselho (JO L 257 de 28.8.2014, p. 146). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
43 Diretiva (UE) 2016/797 do Parlamento Europeu e do Conselho, de 11 de maio de 2016, relativa à interoperabilidade do sistema ferroviário na União Europeia (JO L 138 de 26.5.2016, p. 44). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
44 Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho, de 30 de maio de 2018, relativo à homologação e à fiscalização do mercado dos veículos a motor e seus reboques, e dos sistemas, componentes e unidades técnicas destinados a esses veículos, que altera os Regulamentos (CE) n.º 715/2007 e (CE) n.º 595/2009 e revoga a Diretiva 2007/46/CE (JO L 151 de 14.6.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
45 Regulamento (UE) 2018/1139 do Parlamento Europeu e do Conselho, de 4 de julho de 2018, relativo a regras comuns no domínio da aviação civil que cria a Agência da União Europeia para a Segurança da Aviação, altera os Regulamentos (CE) n.º 2111/2005, (CE) n.º 1008/2008, (UE) n.º 996/2010 e (UE) n.º 376/2014 e as Diretivas 2014/30/UE e 2014/53/UE do Parlamento Europeu e do Conselho, e revoga os Regulamentos (CE) n.º 552/2004 e (CE) n.º 216/2008 do Parlamento Europeu e do Conselho e o Regulamento (CEE) n.º 3922/91 do Conselho (JO L 212 de 22.8.2018, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
46 Regulamento (UE) 2019/2144 do Parlamento Europeu e do Conselho, de 27 de novembro de 2019, relativo aos requisitos de homologação de veículos a motor e seus reboques e dos sistemas, componentes e unidades técnicas destinados a esses veículos, no que se refere à sua segurança geral e à proteção dos ocupantes dos veículos e dos utentes da estrada vulneráveis, que altera o Regulamento (UE) 2018/858 do Parlamento Europeu e do Conselho e revoga os Regulamentos (CE) n.º 78/2009, (CE) n.º 79/2009 e (CE) n.º 661/2009 do Parlamento Europeu e do Conselho e os Regulamentos (CE) n.º 631/2009, (UE) n.º 406/2010, (UE) n.º 672/2010, (UE) n.º 1003/2010, (UE) n.º 1005/2010, (UE) n.º 1008/2010, (UE) n.º 1009/2010, (UE) n.º 19/2011, (UE) n.º 109/2011, (UE) n.º 458/2011, (UE) n.º 65/2012, (UE) n.º 130/2012, (UE) n.º 347/2012, (UE) n.º 351/2012, (UE) n.º 1230/2012, e (UE) 2015/166 da Comissão (JO L 325 de 16.12.2019, p. 1). |
Alteração 14
Proposta de regulamento
Considerando 32
|
|
Texto da Comissão |
Alteração |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá‑los como de risco elevado se, em função da finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento. A identificação desses sistemas baseia‑se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
(32) Relativamente aos sistemas de IA autónomos, ou seja, sistemas de IA de risco elevado que não são componentes de segurança de produtos nem são, eles próprios, produtos, é apropriado classificá‑los como de risco elevado se, em função da finalidade prevista, representarem um risco elevado de danos para a saúde e a segurança ou de prejuízo para os direitos fundamentais das pessoas ou para o ambiente, tendo em conta a gravidade dos possíveis danos e a probabilidade dessa ocorrência, e se forem utilizados num conjunto de domínios especificamente predefinidos no regulamento. A identificação desses sistemas baseia‑se na mesma metodologia e nos mesmos critérios previstos para futuras alterações da lista de sistemas de IA de risco elevado. |
Alteração 15
Proposta de regulamento
Considerando 34
|
|
Texto da Comissão |
Alteração |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. |
(34) No tocante à gestão e ao funcionamento de infraestruturas críticas, é apropriado classificar como de risco elevado os sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do tráfego rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, uma vez que a falha ou anomalia destes sistemas pode pôr em risco a vida e a saúde das pessoas em larga escala e provocar perturbações substanciais das atividades sociais e económicas normais. Entre os exemplos de sistemas de gestão de infraestruturas críticas do transporte rodoviário abrangidas pelo anexo III devem figurar os sistemas de controlo e gestão do tráfego, os sistemas de transporte inteligentes e os transportes conectados a infraestruturas TIC. |
Alteração 16
Proposta de regulamento
Considerando 37
|
|
Texto da Comissão |
Alteração |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, deficiência, idade ou orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado, é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas. |
(37) Outro domínio no qual a utilização de sistemas de IA merece especial atenção é o acesso a determinados serviços e prestações essenciais, de cariz privado e público, e o usufruto dos mesmos, os quais são necessários para que as pessoas participem plenamente na sociedade ou melhorem o seu nível de vida. Em particular, os sistemas de IA utilizados para avaliar a classificação de crédito ou a capacidade de endividamento de pessoas singulares devem ser classificados como sistemas de IA de risco elevado, uma vez que determinam o acesso dessas pessoas a recursos financeiros ou a serviços essenciais, como o alojamento, a eletricidade e os serviços de telecomunicações. Os sistemas de IA utilizados para essa finalidade podem conduzir à discriminação de pessoas ou grupos e perpetuar padrões históricos de discriminação, por exemplo, em razão da origem étnica ou racial, do género, da deficiência, da idade ou da orientação sexual, ou criar novas formas de impactos discriminatórios. Tendo em conta a dimensão bastante limitada do impacto e as alternativas disponíveis no mercado, é apropriado isentar os sistemas de IA utilizados para efeitos de avaliação da capacidade de endividamento e de classificação de crédito que sejam colocados em serviço por fornecedores de pequena dimensão para utilização própria. Normalmente, as pessoas singulares que se candidatam ou que recebem prestações e serviços de assistência pública de autoridades públicas dependem dos mesmos e estão numa posição vulnerável face às autoridades competentes. Caso sejam utilizados para determinar a recusa, redução, revogação ou recuperação dessas prestações e serviços pelas autoridades, os sistemas de IA podem ter um impacto significativo na subsistência das pessoas e podem infringir os seus direitos fundamentais, como o direito à proteção social, à não discriminação, à dignidade do ser humano ou à ação. Como tal, esses sistemas devem ser classificados como de risco elevado. No entanto, o presente regulamento não pode constituir um obstáculo ao desenvolvimento e à utilização de abordagens inovadoras na administração pública, que tirariam partido de uma maior utilização de sistemas de IA conformes e seguros, desde que esses sistemas não representem um risco elevado para as pessoas coletivas e singulares. Por último, os sistemas de IA utilizados para enviar ou estabelecer prioridades no envio de serviços de resposta a emergências devem ser classificados como de risco elevado, uma vez que tomam decisões em situações bastante críticas que afetam a vida, a saúde e os bens das pessoas. |
Alteração 17
Proposta de regulamento
Considerando 43
|
|
Texto da Comissão |
Alteração |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança e os direitos fundamentais, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
(43) Os sistemas de IA de risco elevado devem estar sujeitos ao cumprimento de requisitos relativos à qualidade dos conjuntos de dados utilizados, à documentação técnica e à manutenção de registos, à transparência e à prestação de informações aos utilizadores, à supervisão humana, à solidez, à exatidão e à cibersegurança. Esses requisitos são necessários para atenuar eficazmente os riscos para a saúde, a segurança, os direitos fundamentais e o ambiente, em função da finalidade prevista do sistema e quando não existam outras medidas menos restritivas do comércio, evitando, assim, restrições injustificadas do comércio. |
Alteração 18
Proposta de regulamento
Considerando 44
|
|
Texto da Comissão |
Alteração |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, livres de erros e completos, tendo em vista a finalidade prevista do sistema. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção e a correção de enviesamentos em sistemas de IA de risco elevado. |
(44) A disponibilidade de dados de elevada qualidade é um fator essencial para o desempenho de vários sistemas de IA, sobretudo quando são utilizadas técnicas que envolvem o treino de modelos, com vista a assegurar que o sistema de IA de risco elevado funcione como pretendido e de modo seguro e não se torne a fonte de uma discriminação proibida pelo direito da União. Para garantir conjuntos de dados de treino, validação e teste de elevada qualidade é necessário aplicar práticas adequadas de governação e gestão de dados. Os conjuntos de dados de treino, validação e teste devem ser suficientemente relevantes, representativos, atualizados e, tanto quanto possível, livres de erros e o mais completos possível, tendo em vista a finalidade prevista do sistema e por forma a garantir o nível de segurança mais elevado. Também devem ter as propriedades estatísticas adequadas, nomeadamente no que respeita às pessoas ou aos grupos de pessoas nos quais o sistema de IA de risco elevado será utilizado. Em particular, os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do exigido face à sua finalidade prevista, as características, as funcionalidades ou os elementos que são específicos do ambiente ou do contexto geográfico, comportamental ou funcional no qual o sistema de IA será utilizado. A fim de proteger os direitos de outras pessoas da discriminação que possa resultar do enviesamento dos sistemas de IA, os fornecedores devem assegurar que as bases de dados contêm dados adequados sobre os grupos mais vulneráveis aos efeitos discriminatórios colocados pela IA, como as pessoas com deficiência, e devem poder efetuar também o tratamento de categorias especiais de dados pessoais por motivos de interesse público importante, para assegurar o controlo, a deteção, a atualização e a correção de enviesamentos em sistemas de IA de risco elevado. |
Alteração 19
Proposta de regulamento
Considerando 47
|
|
Texto da Comissão |
Alteração |
(47) Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares, os sistemas de IA de risco elevado devem observar um certo grau de transparência. Os utilizadores devem ser capazes de interpretar o resultado do sistema e utilizá‑lo de forma adequada. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
(47) Para fazer face à opacidade que pode tornar determinados sistemas de IA incompreensíveis ou demasiado complexos para as pessoas singulares, os sistemas de IA de risco elevado devem observar um certo grau de transparência, em particular quando aplicados às plataformas de trabalho digitais que gerem as atividades dos trabalhadores do setor dos transportes. Os utilizadores devem ser capazes de interpretar o resultado do sistema e utilizá‑lo de forma adequada. A transparência, a equidade, a responsabilização e a explicabilidade dos sistemas de IA podem também ser um fator positivo para a sua adoção pelos consumidores no mercado. Como tal, os sistemas de IA de risco elevado devem ser acompanhados de documentação pertinente e instruções de utilização e incluir informações concisas e claras, nomeadamente informações relativas a possíveis riscos para os direitos fundamentais e de discriminação, se for caso disso. |
Alteração 20
Proposta de regulamento
Considerando 47‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(47‑A) Com base na experiência anterior, é particularmente importante assegurar requisitos e orientações claros para a interoperabilidade entre os sistemas de IA, tanto nos diferentes setores económicos como entre eles, contribuindo para promover a inovação e proporcionando condições favoráveis às pequenas e médias empresas (PME). |
Alteração 21
Proposta de regulamento
Considerando 48
|
|
Texto da Comissão |
Alteração |
(48) Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares. Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. |
(48) Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que permita a sua supervisão por pessoas singulares, a menos que se demonstre claramente que não acrescentam valor e que podem inclusivamente prejudicar a proteção da saúde, da segurança e dos direitos fundamentais. Para o efeito, o fornecedor do sistema deve identificar medidas de supervisão humana adequadas antes da colocação no mercado ou da colocação em serviço do sistema. Em particular, se for caso disso, essas medidas devem garantir que o sistema integre restrições operacionais que não possam ser neutralizadas pelo próprio sistema e que respondam ao operador humano e que as pessoas singulares a quem foi atribuída a supervisão humana tenham as competências, a formação e a autoridade necessárias para desempenhar essa função. No que diz respeito ao setor dos transportes, as aplicações de sistemas de IA devem respeitar a legislação setorial em vigor. Quando o que está em jogo é a segurança física, as normas da União e, se for caso disso, as normas internacionais devem determinar em que casos a possibilidade de um operador humano retomar o controlo deve prevalecer sobre a decisão de um sistema de IA. |
Alteração 22
Proposta de regulamento
Considerando 51
|
|
Texto da Comissão |
Alteração |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal‑intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou por em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado devem tomar medidas adequadas, tendo ainda em devida conta a infraestrutura de TIC subjacente. |
(51) A cibersegurança desempenha um papel fundamental para garantir que os sistemas de IA sejam resistentes às ações de terceiros mal‑intencionados que tentam explorar as vulnerabilidades dos sistemas com o objetivo de lhes alterar a utilização, o comportamento e o desempenho ou pôr em causa as propriedades de segurança. Os ciberataques contra sistemas de IA podem tirar partido de ativos específicos de inteligência artificial, como os conjuntos de dados de treino (por exemplo, contaminação de dados) ou os modelos treinados (por exemplo, ataques antagónicos), ou explorar vulnerabilidades dos ativos digitais do sistema de IA ou da infraestrutura de tecnologias da informação e comunicação (TIC) subjacente. A fim de assegurar um nível de cibersegurança adequado aos riscos, os fornecedores de sistemas de IA de risco elevado, bem como os organismos notificados, as autoridades nacionais competentes e as autoridades de fiscalização do mercado que acedem aos dados dos fornecedores de sistemas de IA de risco elevado, devem tomar medidas adequadas, tendo ainda em devida conta, conforme adequado, a infraestrutura de TIC subjacente. |
Alteração 23
Proposta de regulamento
Considerando 54
|
|
Texto da Comissão |
Alteração |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente e estabelecer um sistema de acompanhamento pós‑comercialização capaz. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. |
(54) O fornecedor deve introduzir um sistema de gestão da qualidade sólido, garantir a realização do procedimento de avaliação da conformidade exigido, elaborar a documentação pertinente na língua do Estado‑Membro em causa e estabelecer um sistema de acompanhamento pós‑comercialização capaz. Todos os elementos, desde a conceção até ao desenvolvimento futuro, devem ser transparentes para o utilizador. As autoridades públicas que colocam em serviço sistemas de IA de risco elevado para sua própria utilização podem adotar e aplicar as regras relativas ao sistema de gestão da qualidade no âmbito do sistema de gestão da qualidade adotado a nível nacional ou regional, consoante o caso, tendo em conta as especificidades do setor e as competências e a organização da autoridade pública em causa. |
Alteração 24
Proposta de regulamento
Considerando 59
|
|
Texto da Comissão |
Alteração |
(59) É apropriado definir que o utilizador do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado, salvo se o sistema for utilizado no âmbito de uma atividade pessoal de caráter não profissional. |
(59) É apropriado definir que o utilizador do sistema de IA é a pessoa singular ou coletiva, a autoridade pública, a agência ou outro organismo sob cuja autoridade o sistema de IA é operado. |
Alteração 25
Proposta de regulamento
Considerando 71
|
|
Texto da Comissão |
Alteração |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial que facilitem o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. |
(71) A inteligência artificial é uma família de tecnologias em rápida evolução que exige novas formas de supervisão regulamentar e um espaço seguro para a experimentação, garantindo ao mesmo tempo uma inovação responsável e a integração de salvaguardas e medidas de atenuação dos riscos adequadas. Para assegurar um quadro jurídico propício à inovação, preparado para o futuro e resistente a perturbações, as autoridades nacionais competentes de um ou vários Estados‑Membros devem ser incentivadas a criar ambientes de testagem da regulamentação da inteligência artificial e torná‑los amplamente disponíveis em toda a União, a fim de facilitar o desenvolvimento e o teste de sistemas de IA inovadores sob uma supervisão regulamentar rigorosa, antes que estes sistemas sejam colocados no mercado ou em serviço. É particularmente importante garantir que as PME e as empresas em fase de arranque possam aceder facilmente a estes ambientes de testagem, estejam ativamente envolvidas e participem no desenvolvimento e na testagem de sistemas de IA inovadores, de modo a poderem contribuir com os seus conhecimentos especializados e experiência. A sua participação deve ser apoiada e facilitada. |
Alteração 26
Proposta de regulamento
Considerando 72
|
|
Texto da Comissão |
Alteração |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas (PME) e as empresas em fase de arranque. Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
(72) Os objetivos dos ambientes de testagem da regulamentação devem passar por: fomentar a inovação no domínio da IA, mediante a criação de um ambiente controlado de experimentação e teste na fase de desenvolvimento e pré‑comercialização, com vista a assegurar que os sistemas de IA inovadores cumprem o presente regulamento e outra legislação aplicável dos Estados‑Membros e da União; reforçar a segurança jurídica para os inovadores; melhorar a supervisão e a compreensão, por parte das autoridades competentes, das oportunidades, dos riscos emergentes e dos impactos da utilização da inteligência artificial; e acelerar o acesso aos mercados, nomeadamente por via da eliminação dos entraves para as pequenas e médias empresas e as empresas em fase de arranque, bem como contribuir para a concretização dos objetivos em matéria de IA estabelecidos no programa intitulado «Guião para a Década Digital». Para assegurar uma aplicação uniforme em toda a União e economias de escala, é apropriado criar regras comuns para a implantação dos ambientes de testagem da regulamentação e um quadro para a cooperação entre as autoridades competentes envolvidas na supervisão desses ambientes. O presente regulamento deve estabelecer o fundamento jurídico para a utilização de dados pessoais recolhidos para outras finalidades com vista ao desenvolvimento de determinados sistemas de IA por motivos de interesse público no âmbito do ambiente de testagem da regulamentação da IA, em conformidade com o artigo 6.º, n.º 4, do Regulamento (UE) 2016/679 e do artigo 6.º do Regulamento (UE) 2018/1725 e sem prejuízo do artigo 4.º, n.º 2, da Diretiva (UE) 2016/680. Os participantes no ambiente de testagem devem assegurar salvaguardas adequadas e cooperar com as autoridades competentes, nomeadamente seguindo as suas orientações e atuando de forma célere e de boa‑fé para atenuar eventuais riscos elevados para a segurança e os direitos fundamentais que possam revelar‑se durante o desenvolvimento e a experimentação no ambiente de testagem. A conduta dos participantes no ambiente de testagem deve ser tida em conta quando as autoridades competentes decidirem sobre a aplicação de uma coima, nos termos do artigo 83.º, n.º 2, do Regulamento (UE) 2016/679 e do artigo 57.º da Diretiva (UE) 2016/680. |
Alteração 27
Proposta de regulamento
Considerando 73
|
|
Texto da Comissão |
Alteração |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses dos fornecedores e utilizadores de sistemas de IA de pequena dimensão. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas dos fornecedores de pequena dimensão devem ser tidas em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados‑Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
(73) A fim de promover e proteger a inovação, é importante ter em especial atenção os interesses das PME e dos utilizadores de sistemas de IA. Para esse efeito, os Estados‑Membros devem desenvolver iniciativas dirigidas a esses operadores, incluindo ações de sensibilização e comunicação de informações. Além disso, os interesses e as necessidades específicas das PME devem ser tidos em conta quando os organismos notificados fixam as taxas a pagar pela avaliação da conformidade. Os custos de tradução associados à documentação obrigatória e à comunicação com as autoridades podem constituir um custo substancial para os fornecedores e outros operadores, nomeadamente para os fornecedores de menor dimensão. Os Estados‑Membros podem eventualmente assegurar que uma das línguas por si determinadas e aceites para a elaboração de documentação pelos fornecedores e a comunicação com os operadores seja uma língua amplamente compreendida pelo maior número possível de utilizadores transfronteiras. |
Alteração 28
Proposta de regulamento
Considerando 76
|
|
Texto da Comissão |
Alteração |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. |
(76) A fim de facilitar uma aplicação simples, eficaz e harmoniosa do presente regulamento, deve ser criado um Comité Europeu para a Inteligência Artificial. O Comité deve ser responsável por uma série de funções consultivas, nomeadamente a emissão de pareceres, recomendações, conselhos ou orientações em questões relacionadas com a aplicação do presente regulamento, incluindo no tocante a especificações técnicas ou normas existentes relativas aos requisitos indicados no presente regulamento, e a prestação de aconselhamento e assistência à Comissão sobre questões específicas relacionadas com a inteligência artificial. A fim de assegurar uma abordagem comum e coerente do desenvolvimento da IA e garantir uma boa cooperação e intercâmbio de pontos de vista, o Comité deve consultar regularmente outras instituições da UE, bem como todas as partes interessadas do setor. |
Alteração 29
Proposta de regulamento
Considerando 77‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
(77‑A) Para incentivar a partilha dos conhecimentos retirados das boas práticas, a Comissão deve organizar regularmente reuniões consultivas que permitam o intercâmbio de conhecimentos especializados entre as autoridades nacionais dos diferentes Estados‑Membros responsáveis pela política de notificação. |
Alteração 30
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Regras relativas à fiscalização e vigilância do mercado. |
e) Regras relativas à fiscalização do mercado, à vigilância do mercado e à governação. |
Alteração 31
Proposta de regulamento
Artigo 1 – parágrafo 1 – alínea e‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e‑A) Uma disposição destinada a promover e apoiar a investigação e o desenvolvimento em prol da inovação. |
Alteração 32
Proposta de regulamento
Artigo 2 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Aos sistemas de IA de risco elevado que são componentes de segurança de produtos ou sistemas ou que são, eles próprios, produtos ou sistemas abrangidos pelo âmbito dos atos a seguir enumerados, apenas é aplicável o artigo 84.º do presente regulamento: |
2. Aos sistemas de IA classificados como IA de risco elevado em conformidade com o artigo 6.º relacionados com os produtos abrangidos pela legislação de harmonização da União enumerada no anexo II, secção B, apenas é aplicável o artigo 84.º do presente regulamento: |
Alteração 33
Proposta de regulamento
Artigo 2 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Regulamento (CE) n.º 300/2008; |
Suprimido |
Alteração 34
Proposta de regulamento
Artigo 2 – n.º 2 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Regulamento (UE) n.º 167/2013; |
Suprimido |
Alteração 35
Proposta de regulamento
Artigo 2 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Regulamento (UE) n.º 168/2013; |
Suprimido |
Alteração 36
Proposta de regulamento
Artigo 2 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Diretiva 2014/90/UE; |
Suprimido |
Alteração 37
Proposta de regulamento
Artigo 2 – n.º 2 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Diretiva (UE) 2016/797; |
Suprimido |
Alteração 38
Proposta de regulamento
Artigo 2 – n.º 2 – alínea f)
|
|
Texto da Comissão |
Alteração |
f) Regulamento (UE) 2018/858; |
Suprimido |
Alteração 39
Proposta de regulamento
Artigo 2 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) Regulamento (UE) 2018/1139; |
Suprimido |
Alteração 40
Proposta de regulamento
Artigo 2 – n.º 2 – alínea h)
|
|
Texto da Comissão |
Alteração |
h) Regulamento (UE) 2019/2144. |
Suprimido |
Alteração 41
Proposta de regulamento
Artigo 2 – n.º 5‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑A. O presente regulamento não se aplica a sistemas de IA, incluindo os respetivos resultados, desenvolvidos e colocados em serviço exclusivamente para fins de investigação e desenvolvimento. |
Alteração 42
Proposta de regulamento
Artigo 2 – n.º 5‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑B. O presente regulamento não se aplica a qualquer atividade de investigação e desenvolvimento relativa a sistemas de IA, na medida em que essa atividade não conduza à colocação de um sistema de IA no mercado ou à sua entrada em serviço nem tal exija e respeite plenamente as normas científicas e éticas aprovadas. |
Alteração 43
Proposta de regulamento
Artigo 2 – n.º 5‑C (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑C. O presente regulamento aplica‑se sem prejuízo das regras estabelecidas por outros atos jurídicos da União que regulam a proteção de dados pessoais, em particular o Regulamento (UE) 2016/679, o Regulamento (UE) 2018/1725, a Diretiva 2002/57/CE e a Diretiva (UE) 2016/680. |
Alteração 44
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 1
|
|
Texto da Comissão |
Alteração |
1) «Sistema de inteligência artificial» (sistema de IA), um programa informático desenvolvido com uma ou várias das técnicas e abordagens enumeradas no anexo I, capaz de, tendo em vista um determinado conjunto de objetivos definidos por seres humanos, criar resultados, tais como conteúdos, previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
1) «Sistema de inteligência artificial» (sistema de IA), um sistema que: |
|
i) recebe dados, inclusive de entrada, provenientes de máquinas e/ou de seres humanos, |
|
ii) infere a forma de alcançar um determinado conjunto de objetivos definidos por seres humanos, utilizando a aprendizagem, o raciocínio ou a modelização, aplicados com as técnicas e abordagens enumeradas no anexo I, e |
|
iii) cria resultados sob a forma de conteúdos (sistemas de IA generativa), previsões, recomendações ou decisões, que influenciam os ambientes com os quais interage; |
Alteração 45
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 4
|
|
Texto da Comissão |
Alteração |
4) «Utilizador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA, salvo se o sistema de IA for utilizado no âmbito de uma atividade pessoal de caráter não profissional; |
4) «Utilizador», uma pessoa singular ou coletiva, autoridade pública, agência ou outro organismo que utilize, sob a sua autoridade, um sistema de IA; |
Alteração 46
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 5‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑A) «Fabricante de produtos», um fabricante na aceção de qualquer legislação da União enumerada no anexo II; |
Alteração 47
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 13
|
|
Texto da Comissão |
Alteração |
13) «Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade prevista, mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis; |
13) «Utilização indevida razoavelmente previsível», a utilização de um sistema de IA de uma forma não conforme com a sua finalidade, tal como indicada nas instruções de utilização ou nas especificações técnicas, mas que pode resultar de comportamentos humanos ou de interações com outros sistemas razoavelmente previsíveis; |
Alteração 48
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 14
|
|
Texto da Comissão |
Alteração |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema que cumpre uma função de segurança nesse produto ou sistema ou cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
14) «Componente de segurança de um produto ou sistema», um componente de um produto ou sistema cuja falha ou anomalia põe em risco a segurança e a saúde de pessoas ou bens; |
Alteração 49
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 35
|
|
Texto da Comissão |
Alteração |
35) «Sistema de categorização biométrica», um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos; |
35) «Sistema de categorização biométrica», um sistema de IA concebido para classificar pessoas singulares em categorias específicas, tais como sexo, idade, deficiência, cor do cabelo, cor dos olhos, tatuagens, origem étnica ou orientação sexual ou política, com base nos seus dados biométricos; |
Alteração 50
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44 – parte introdutória
|
|
Texto da Comissão |
Alteração |
44) «Incidente grave», qualquer incidente que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
44) «Incidente grave», qualquer incidente ou anomalia de um sistema de IA que, direta ou indiretamente, tenha, poderia ter tido ou possa vir a ter alguma das seguintes consequências: |
Alteração 51
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
44‑A) «Dados pessoais», os dados na aceção do artigo 4.º, ponto 1, do Regulamento (UE) 2016/679; |
Alteração 52
Proposta de regulamento
Artigo 3 – parágrafo 1 – ponto 44‑B(novo)
|
|
Texto da Comissão |
Alteração |
|
44‑B) «Dados não pessoais», os dados que não sejam dados pessoais na aceção do artigo 4.º, ponto 1, do Regulamento (UE) 2016/679; |
Alteração 53
Proposta de regulamento
Artigo 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para alterar a lista de técnicas e abordagens enumeradas no anexo I, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista. |
A Comissão fica habilitada a adotar atos delegados nos termos do artigo 73.º para alterar a lista de técnicas e abordagens enumeradas no anexo I, no âmbito de aplicação da definição de um sistema de IA que figura no artigo 3.º, ponto 1, a fim de a atualizar face à evolução do mercado e da tecnologia com base em características similares às técnicas e abordagens constantes da lista. |
Alteração 54
Proposta de regulamento
Artigo 6 – n.º 1 – parte introdutória
|
|
Texto da Comissão |
Alteração |
1. Independentemente de a colocação no mercado ou a colocação em serviço de um sistema de IA ser feita separadamente dos produtos a que se referem as alíneas a) e b), esse sistema de IA é considerado de risco elevado quando estejam satisfeitas ambas as condições que se seguem: |
1. Um sistema de IA que seja, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II deve ser considerado de risco elevado se tiver de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou entrada em serviço nos termos da referida legislação. |
Alteração 55
Proposta de regulamento
Artigo 6 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) O sistema de IA destina‑se a ser utilizado como um componente de segurança de um produto ou é, ele próprio, um produto abrangido pela legislação de harmonização da União enumerada no anexo II; |
2. Um sistema de IA destinado a ser utilizado como componente de segurança de um produto abrangido pela legislação a que se refere o n.º 1 deve ser considerado de risco elevado se tiver de ser sujeito a uma avaliação da conformidade por terceiros com vista à sua colocação no mercado ou entrada em serviço nos termos da referida legislação. Esta disposição é aplicável independentemente de a colocação no mercado ou a entrada em serviço do sistema de IA ser feita separadamente do produto. |
Alteração 56
Proposta de regulamento
Artigo 6 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Além dos sistemas de IA de risco elevado referidos no n.º 1, os sistemas de IA referidos no anexo III são também considerados de risco elevado. |
3. Os sistemas de IA referidos no anexo III devem ser considerados de risco elevado. |
Alteração 57
Proposta de regulamento
Artigo 6 – n.º 2‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
2‑A. A classificação como IA de risco elevado por força do artigo 6.º, n.os 1 e 3, não será tida em conta em relação aos sistemas de IA cuja finalidade prevista demonstre que o resultado gerado é uma recomendação que exige a intervenção humana para converter essa recomendação numa decisão e em relação a sistemas de IA que não conduzam a decisões ou ações autónomas do sistema geral. |
Alteração 58
Proposta de regulamento
Artigo 7 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Os sistemas de IA representam um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
b) Os sistemas de IA representam um risco de danos para a saúde ou a segurança ou um risco de impacto adverso nos direitos fundamentais ou no ambiente que, em termos de gravidade e probabilidade de ocorrência, é equivalente ou superior ao risco de danos ou impacto adverso representado pelos sistemas de IA de risco elevado já referidos no anexo III. |
Alteração 59
Proposta de regulamento
Artigo 7 – n.º 2 – parte introdutória
|
|
Texto da Comissão |
Alteração |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
2. Ao avaliar, para efeitos do disposto no n.º 1, se um sistema de IA representa um risco de danos para a saúde e a segurança ou um risco de impacto adverso nos direitos fundamentais ou no ambiente equivalente ou superior ao risco de danos representado pelos sistemas de IA de risco elevado já referidos no anexo III, a Comissão tem em consideração os seguintes critérios: |
Alteração 60
Proposta de regulamento
Artigo 7 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso nos direitos fundamentais ou suscitou preocupações significativas quanto à concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes; |
c) Em que medida a utilização de um sistema de IA já causou danos para a saúde e a segurança ou um impacto adverso nos direitos fundamentais ou no ambiente ou suscitou preocupações significativas quanto à concretização desses danos ou desse impacto adverso, conforme demonstrado por relatórios ou alegações documentadas apresentadas às autoridades nacionais competentes; |
Alteração 61
Proposta de regulamento
Artigo 7 – n.º 2 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas; |
d) O potencial grau desses danos ou desse impacto adverso, nomeadamente em termos de intensidade e de capacidade para afetar um grande número de pessoas ou o ambiente; |
Alteração 62
Proposta de regulamento
Artigo 7 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com impacto na saúde ou na segurança das pessoas não podem ser considerados como facilmente reversíveis; |
g) A facilidade de reversão do resultado produzido com um sistema de IA, tendo em conta que os resultados com um impacto adverso na saúde ou na segurança das pessoas ou no ambiente não podem ser considerados como facilmente reversíveis; |
Alteração 63
Proposta de regulamento
Artigo 8 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem cumprir os requisitos estabelecidos neste capítulo. |
1. Os sistemas de IA de risco elevado devem cumprir os requisitos estabelecidos neste capítulo, tendo em conta a legislação setorial, se for caso disso, as normas harmonizadas e as especificações comuns. |
Alteração 64
Proposta de regulamento
Artigo 9 – n.º 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Identificação e análise dos riscos conhecidos e previsíveis associados a cada sistema de IA de risco elevado; |
a) Identificação e análise dos riscos conhecidos e previsíveis associados a cada sistema de IA de risco elevado que possam causar danos ou afetar o ambiente ou a saúde, a segurança e os direitos fundamentais das pessoas, tendo em conta a finalidade prevista ou a utilização indevida do sistema de IA de risco elevado. |
Alteração 65
Proposta de regulamento
Artigo 9 – n.º 2 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Avaliação de outros riscos que possam surgir, baseada na análise dos dados recolhidos a partir do sistema de acompanhamento pós‑comercialização a que se refere o artigo 61.º; |
c) Avaliação de outros riscos que possam surgir, baseada na análise dos dados recolhidos a partir do sistema de acompanhamento pós‑comercialização; |
Alteração 66
Proposta de regulamento
Artigo 9 – n.º 4 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem levar a que o eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis. Os riscos residuais devem ser comunicados ao utilizador. |
As medidas de gestão de riscos a que se refere o n.º 2, alínea d), devem levar a que o eventual risco residual associado a cada perigo, bem como o risco residual global dos sistemas de IA de risco elevado, sejam considerados aceitáveis, contanto que o sistema de IA de risco elevado seja usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, sujeito aos termos, às condições conforme disponibilizadas pelo fornecedor e às restrições contratuais e da licença. Os riscos residuais devem ser comunicados ao utilizador. |
Alteração 67
Proposta de regulamento
Artigo 10 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5. |
1. Os sistemas de IA de risco elevado que utilizem técnicas que envolvam o treino de modelos com dados devem ser desenvolvidos com base em conjuntos de dados de treino, validação e teste que cumpram os critérios de qualidade referidos nos n.os 2 a 5, conforme aplicável. |
Alteração 68
Proposta de regulamento
Artigo 10 – n.º 2 – alínea g)
|
|
Texto da Comissão |
Alteração |
g) À identificação de eventuais lacunas ou deficiências de dados e de possíveis soluções para as mesmas. |
g) À identificação de outras lacunas ou deficiências de dados que aumentam significativamente os riscos de danos para a saúde, o ambiente e a segurança ou para os direitos fundamentais das pessoas, e de possíveis soluções para as mesmas. |
Alteração 69
Proposta de regulamento
Artigo 10 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos, isentos de erros e completos. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
3. Os conjuntos de dados de treino, validação e teste devem ser pertinentes, representativos e, tanto quanto possível, isentos de erros e o mais completos possível. Devem ter as propriedades estatísticas adequadas, nomeadamente, quando aplicável, no tocante às pessoas ou grupos de pessoas em que o sistema de IA de risco elevado se destina a ser utilizado. Estas características dos conjuntos de dados podem ser satisfeitas a nível de conjuntos de dados individuais ou de uma combinação dos mesmos. |
Alteração 70
Proposta de regulamento
Artigo 10 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os conjuntos de dados de treino, validação e teste devem ter em conta, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
4. Os conjuntos de dados de treino, validação e teste devem ser suficientemente diversos para refletir com precisão, na medida do necessário para a finalidade prevista, as características ou os elementos que são idiossincráticos do enquadramento geográfico, comportamental ou funcional específico no qual o sistema de IA de risco elevado se destina a ser utilizado. |
Alteração 71
Proposta de regulamento
Artigo 11 – n.º 1 – parágrafo 2
|
|
Texto da Comissão |
Alteração |
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais competentes e aos organismos notificados todas as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV. |
A documentação técnica deve ser elaborada de maneira que demonstre que o sistema de IA de risco elevado cumpre os requisitos estabelecidos no presente capítulo e deve facultar às autoridades nacionais competentes e aos organismos notificados todas as informações necessárias para aferir a conformidade do sistema de IA com esses requisitos. A documentação técnica deve conter, no mínimo, os elementos previstos no anexo IV ou, no caso das PME e das empresas em fase de arranque, qualquer documentação equivalente que cumpra os mesmos objetivos, sob reserva da aprovação da autoridade competente. A documentação deve ser mantida atualizada ao longo de todo o seu ciclo de vida. |
Alteração 72
Proposta de regulamento
Artigo 12 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. As capacidades de registo devem assegurar um nível de rastreabilidade do funcionamento do sistema de IA ao longo do seu ciclo de vida que seja adequado à finalidade prevista do sistema. |
2. As capacidades de registo devem assegurar um nível de rastreabilidade do funcionamento do sistema de IA, enquanto este estiver a ser utilizado no seu ciclo de vida, que seja adequado à finalidade prevista do sistema. |
Alteração 73
Proposta de regulamento
Artigo 13 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital ou outro adequado, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores. |
2. Os sistemas de IA de risco elevado devem ser acompanhados de instruções de utilização, num formato digital adequado ou disponibilizadas de qualquer outro modo, que incluam informações concisas, completas, corretas e claras que sejam pertinentes, acessíveis e compreensíveis para os utilizadores, para os ajudar na utilização e na manutenção do sistema de IA, tendo em conta a finalidade e o público‑alvo previstos das instruções. |
Alteração 74
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea ii)
|
|
Texto da Comissão |
Alteração |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e previsíveis que possam ter um impacto nesse nível esperado de exatidão, solidez e cibersegurança, |
ii) o nível de exatidão, solidez e cibersegurança a que se refere o artigo 15.º relativamente ao qual o sistema de IA de risco elevado foi testado e validado e que pode ser esperado, bem como quaisquer circunstâncias conhecidas e razoavelmente previsíveis que possam ter um impacto material nesse nível esperado de exatidão, solidez e cibersegurança, |
Alteração 75
Proposta de regulamento
Artigo 13 – n.º 3 – alínea b) – subalínea iii)
|
|
Texto da Comissão |
Alteração |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança ou os direitos fundamentais, |
iii) qualquer circunstância conhecida ou previsível, relacionada com a utilização do sistema de IA de risco elevado de acordo com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, que possa causar riscos para a saúde e a segurança, os direitos fundamentais ou o ambiente, |
Alteração 76
Proposta de regulamento
Artigo 13 – n.º 3 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) A vida útil esperada do sistema de IA de risco elevado e quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software. |
e) A vida útil esperada do sistema de IA de risco elevado, a descrição do processo da sua retirada de utilização e quaisquer medidas de manutenção e assistência necessárias para assegurar o correto funcionamento desse sistema de IA, incluindo no tocante a atualizações do software. |
Alteração 77
Proposta de regulamento
Artigo 14 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem‑máquina apropriadas, que possam ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de tal modo, incluindo com ferramentas de interface homem‑máquina apropriadas, que possam ser eficazmente supervisionados por pessoas singulares durante o período de utilização do sistema de IA, a menos que se demonstre claramente que a intervenção humana compromete a segurança do sistema de IA de risco elevado em causa. |
Alteração 78
Proposta de regulamento
Artigo 14 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança ou os direitos fundamentais que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
2. A supervisão humana deve procurar prevenir ou minimizar os riscos para a saúde, a segurança, os direitos fundamentais ou o ambiente que possam surgir quando um sistema de IA de risco elevado é usado em conformidade com a sua finalidade prevista ou em condições de utilização indevida razoavelmente previsíveis, em especial quando esses riscos persistem apesar da aplicação de outros requisitos estabelecidos neste capítulo. |
Alteração 79
Proposta de regulamento
Artigo 14 – n.º 4 – parte introdutória
|
|
Texto da Comissão |
Alteração |
4. As medidas a que se refere o n.º 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, em função das circunstâncias: |
4. As medidas a que se refere o n.º 3 devem permitir que as pessoas responsáveis pela supervisão humana façam o seguinte, de modo adequado e proporcional às circunstâncias: |
Alteração 80
Proposta de regulamento
Artigo 14 – n.º 4 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Compreendam completamente as capacidades e limitações do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
a) Compreendam adequadamente as capacidades e limitações do sistema de IA de risco elevado e sejam capazes de controlar devidamente o seu funcionamento, de modo que os sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser detetados e resolvidos o mais rapidamente possível; |
Alteração 81
Proposta de regulamento
Artigo 14 – n.º 4 – alínea d)
|
|
Texto da Comissão |
Alteração |
d) Sejam capazes de decidir, em qualquer situação específica, não usar o sistema de IA de risco elevado ou ignorar, anular ou reverter o resultado do sistema de IA de risco elevado; |
d) Sejam capazes de decidir, em qualquer situação específica, não usar o sistema de IA de risco elevado ou ignorar, anular ou reverter o resultado do sistema de IA de risco elevado, a menos que se demonstre claramente e se considere que tal intervenção humana é suscetível de aumentar os riscos ou de ter um impacto negativo no desempenho do sistema. |
Alteração 82
Proposta de regulamento
Artigo 14 – n.º 4 – alínea e)
|
|
Texto da Comissão |
Alteração |
e) Serem capazes de intervir no funcionamento do sistema de IA de risco elevado ou interromper o sistema por meio de um botão de «paragem» ou procedimento similar. |
e) Sejam capazes de intervir no funcionamento do sistema de IA de risco elevado, colocar o sistema em modo de segurança, colocá‑lo em modo de controlo manual ou pará‑lo por meio de um botão de «paragem» ou procedimento similar, a menos que se demonstre claramente e se considere que tal intervenção humana é suscetível de aumentar os riscos ou de ter um impacto negativo no desempenho do sistema. |
Alteração 83
Proposta de regulamento
Artigo 14 – n.º 4 – alínea e‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
e‑A) Sejam capazes de compreender quando a decisão de um sistema de IA de risco elevado é preferível à supervisão humana. |
Alteração 84
Proposta de regulamento
Artigo 14 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada por, pelo menos, duas pessoas singulares. |
5. Em relação aos sistemas de IA de risco elevado a que se refere o anexo III, ponto 1, alínea a), as medidas referidas no n.º 3 devem, além disso, permitir assegurar que nenhuma ação ou decisão seja tomada pelo utilizador com base na identificação resultante do sistema, salvo se a mesma tiver sido verificada e confirmada separadamente por, pelo menos, duas pessoas singulares. |
Alteração 85
Proposta de regulamento
Artigo 15 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem, tendo em conta a finalidade prevista, um nível apropriado de exatidão, solidez e cibersegurança e apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida. |
1. Os sistemas de IA de risco elevado devem ser concebidos e desenvolvidos de maneira que alcancem, tendo em conta a finalidade prevista, o nível mais elevado de exatidão, solidez e cibersegurança possível e apresentem um desempenho coerente em relação a tais aspetos durante o ciclo de vida. |
Alteração 86
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 1
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado devem ser resistentes a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Os fornecedores devem tomar todas as medidas adequadas e exequíveis para garantir que os sistemas de IA de risco elevado são resistentes a erros, falhas ou incoerências que possam ocorrer no sistema ou no ambiente em que aquele opera, em especial devido à interação com pessoas singulares ou outros sistemas. |
Alteração 87
Proposta de regulamento
Artigo 15 – n.º 3 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente enviesados devido a resultados usados como dados de entrada para futuras operações («circuitos de realimentação») sejam devidamente abordados por via de medidas de atenuação adequadas. |
Os sistemas de IA de risco elevado que continuam a aprender após a colocação no mercado ou a colocação em serviço devem ser desenvolvidos de maneira que assegure que os resultados possivelmente tendenciosos devido a resultados que influenciem os dados de entrada para futuras operações («circuitos de realimentação») sejam devidamente abordados por via de medidas de atenuação adequadas. |
Alteração 88
Proposta de regulamento
Artigo 28 – n.º 1 – alínea c‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c‑A) Se modificar a finalidade prevista de um sistema de IA que não é de risco elevado e que já tenha sido colocado no mercado ou colocado em serviço, de tal forma que o transforme num sistema de IA de risco elevado. |
Alteração 89
Proposta de regulamento
Artigo 29 – n.º 6‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
6‑A. O presente artigo aplica‑se apenas aos utilizadores que atuem no exercício da sua atividade profissional e não aos que utilizam a IA no âmbito de uma atividade pessoal não profissional. |
Alteração 90
Proposta de regulamento
Artigo 29 – n.º 6‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
6‑B. Os utilizadores de sistemas de IA de risco elevado que modifiquem ou ampliem a finalidade para a qual a conformidade do sistema de IA foi originalmente avaliada devem criar e documentar um sistema de acompanhamento pós‑comercialização (artigo 61.º) e devem submeter‑se a uma nova avaliação da conformidade (artigo 43.º), com a participação de um organismo notificado. |
Alteração 91
Proposta de regulamento
Artigo 30 – n.º 8
|
|
Texto da Comissão |
Alteração |
8. As autoridades notificadoras devem certificar‑se de que as avaliações da conformidade são realizadas de modo proporcionado, evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço. |
8. As autoridades notificadoras devem certificar‑se de que as avaliações da conformidade são realizadas de modo proporcionado, evitando encargos desnecessários para os fornecedores, e de que os organismos notificados executam as suas atividades tendo devidamente em conta a dimensão da empresa, o setor no qual opera, a sua estrutura e o grau de complexidade do sistema de IA em apreço. A este respeito, deve ser prestada especial atenção às microempresas e às PME, mantendo os custos de conformidade para elas a um nível razoável. |
Alteração 92
Proposta de regulamento
Artigo 33 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado‑Membro em que exerce as suas atividades. |
6. Os organismos notificados devem dispor de procedimentos documentados que garantam que o seu pessoal, comités, filiais, subcontratantes e qualquer outro organismo associado ou pessoal de organismos externos respeitam a confidencialidade das informações de que tenham conhecimento durante a realização das atividades de avaliação da conformidade, salvo se a divulgação daquelas for exigida por lei. O pessoal dos organismos notificados deve estar sujeito ao sigilo profissional no que se refere a todas as informações que obtiver no exercício das suas funções no âmbito do presente regulamento, exceto em relação às autoridades notificadoras do Estado‑Membro em que exerce as suas atividades. Todas as informações e documentação que os organismos notificados obtenham nos termos do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 93
Proposta de regulamento
Artigo 39‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
Artigo 39.º‑A (novo) |
|
Intercâmbio de conhecimentos especializados e de boas práticas |
|
A Comissão deve facilitar a organização regular de reuniões consultivas que permitam o intercâmbio de conhecimentos especializados e de boas práticas entre as autoridades nacionais dos Estados‑Membros responsáveis pela política de notificação. |
Alteração 94
Proposta de regulamento
Artigo 40 – parágrafo 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
Ao enviar um pedido de normalização a uma organização europeia de normalização em conformidade com o artigo 10.º do Regulamento (UE) n.º 1025/2012, a Comissão deve especificar que as normas são coerentes, fáceis de aplicar e elaboradas de uma forma que permita cumprir, concretamente, os seguintes objetivos: |
|
a) Garantir que os sistemas de IA colocados no mercado ou colocados em serviço na União sejam seguros e respeitem os interesses públicos e os valores da União e reforcem a liderança digital da União; |
|
b) Promover o investimento e a inovação na IA, bem como a competitividade e o crescimento do mercado da União; |
|
c) Melhorar a governação multilateral, garantindo que esta seja inclusiva e representativa de todas as partes interessadas europeias (por exemplo, a sociedade civil, os investigadores, a indústria e as PME); |
|
d) Contribuir para o reforço da cooperação mundial em matéria de normalização no domínio da IA, compatível com os valores e os interesses da União. |
|
A Comissão deve solicitar às organizações europeias de normalização que informem regularmente sobre os progressos realizados no que respeita aos objetivos acima referidos. |
Alteração 95
Proposta de regulamento
Artigo 41 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Na ausência das normas harmonizadas a que se refere o artigo 40.º ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas em termos de segurança ou direitos fundamentais, a Comissão pode, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
1. Na ausência das normas harmonizadas a que se refere o artigo 40.º ou caso a Comissão considere que as normas harmonizadas existentes são insuficientes ou que é necessário abordar preocupações específicas em termos de segurança ou direitos fundamentais, a Comissão pode, após consultar o Comité para a Inteligência Artificial a que se refere o artigo 56.º e as autoridades e organizações competentes do setor em causa, por meio de atos de execução, adotar especificações comuns relativas aos requisitos estabelecidos no capítulo 2 do presente título. Os referidos atos de execução são adotados de acordo com o procedimento de exame a que se refere o artigo 74.º, n.º 2. |
Alteração 96
Proposta de regulamento
Artigo 41 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável. |
2. Ao preparar as especificações comuns a que se refere o n.º 1, a Comissão cumpre os objetivos a que se refere o artigo 40.º, n.º 2, e recolhe as opiniões dos organismos ou grupos de peritos pertinentes criados nos termos do direito setorial da União aplicável, bem como das partes interessadas do setor em causa. |
Alteração 97
Proposta de regulamento
Artigo 43 – n.º 6
|
|
Texto da Comissão |
Alteração |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde e a segurança e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
6. A Comissão fica habilitada a adotar atos delegados para alterar os n.os 1 e 2, a fim de sujeitar os sistemas de IA de risco elevado referidos no anexo III, pontos 2 a 8, ao procedimento de avaliação da conformidade referido no anexo VII ou a partes daquele. A Comissão adota esses atos delegados tendo em conta a eficácia do procedimento de avaliação da conformidade baseado no controlo interno a que se refere o anexo VI na prevenção ou minimização dos riscos para a saúde, a segurança, o ambiente e a proteção dos direitos fundamentais representados por esses sistemas, bem como a disponibilidade de capacidades e recursos adequados entre os organismos notificados. |
Alteração 98
Proposta de regulamento
Artigo 52 – título
|
|
Texto da Comissão |
Alteração |
Obrigações de transparência aplicáveis a determinados sistemas de inteligência artificial |
Obrigações de transparência aplicáveis aos sistemas de inteligência artificial |
Alteração 99
Proposta de regulamento
Artigo 52 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. Os fornecedores de qualquer sistema de IA devem documentar e disponibilizar, mediante pedido, os parâmetros relativos ao impacto ambiental, nomeadamente mas não exclusivamente ao consumo de recursos, resultante da conceção, da gestão de dados, da formação e das infraestruturas subjacentes ao sistema de IA, e aos métodos para reduzir tal impacto. |
Alteração 100
Proposta de regulamento
Artigo 53 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados‑Membros ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação de sistemas de IA inovadores por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. Tal deve ocorrer sob a supervisão e orientação diretas das autoridades competentes com vista a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados‑Membros supervisionada no ambiente de testagem. |
1. Os ambientes de testagem da regulamentação da IA estabelecidos pelas autoridades competentes de um ou vários Estados‑Membros ou pela Autoridade Europeia para a Proteção de Dados devem proporcionar um ambiente controlado que facilite o desenvolvimento, a testagem e a validação de sistemas de IA inovadores, bem como um tratamento seguro dos dados pessoais, por um período limitado antes da sua colocação no mercado ou colocação em serviço de acordo com um plano específico. Tal deve ocorrer sob a supervisão e orientação diretas das autoridades competentes com vista a garantir a conformidade com os requisitos do presente regulamento e, quando pertinente, de outra legislação da União e dos Estados‑Membros supervisionada no ambiente de testagem. |
Alteração 101
Proposta de regulamento
Artigo 53 – n.º 1‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑A. Os organizadores de ambientes de testagem da regulamentação da IA devem assegurar uma acesso fácil às PME e às empresas em fase de arranque, facilitando e apoiando a sua participação. |
Alteração 102
Proposta de regulamento
Artigo 53 – n.º 1‑B (novo)
|
|
Texto da Comissão |
Alteração |
|
1‑B. Os responsáveis pelo tratamento de dados pessoais a que se refere o artigo 4.º, ponto 7, do Regulamento (UE) 2016/679 podem continuar a proceder ao tratamento de dados pessoais num ambiente de testagem da regulamentação da IA, na medida em que tal seja necessário para efeitos de desenvolvimento, testagem e validação de sistemas de IA. O direito de tratamento está sujeito a salvaguardas adequadas em matéria de direitos e liberdades fundamentais das pessoas singulares. Este tratamento não é considerado incompatível com as finalidades iniciais. |
Alteração 103
Proposta de regulamento
Artigo 53 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde e a segurança e os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
3. Os ambientes de testagem da regulamentação da IA não afetam os poderes de supervisão e de correção das autoridades competentes. A identificação de quaisquer riscos significativos para a saúde, a segurança, o ambiente ou os direitos fundamentais durante o desenvolvimento e a testagem desses sistemas deve conduzir à adoção imediata de medidas de atenuação e, na sua falta, à suspensão do processo de desenvolvimento e testagem até que se verifique essa atenuação. |
Alteração 104
Proposta de regulamento
Artigo 53 – n.º 5
|
|
Texto da Comissão |
Alteração |
5. As autoridades competentes dos Estados‑Membros que criaram ambientes de testagem da regulamentação da IA devem coordenar as suas atividades e cooperar no quadro do Comité Europeu para a Inteligência Artificial. Essas autoridades devem apresentar relatórios anuais ao Comité e à Comissão sobre os resultados da aplicação desse sistema, incluindo boas práticas, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. |
5. As autoridades competentes dos Estados‑Membros devem coordenar as suas atividades no que respeita a ambientes de testagem da regulamentação da IA e cooperar no quadro do Comité Europeu para a Inteligência Artificial. Essas autoridades devem apresentar relatórios anuais ao Comité e à Comissão sobre os resultados da aplicação desse sistema, incluindo boas práticas, ensinamentos retirados e recomendações sobre a sua configuração e, se for caso disso, sobre a aplicação do presente regulamento e de outra legislação da União supervisionada no ambiente de testagem. |
Alteração 105
Proposta de regulamento
Artigo 54 – n.º 1 – alínea a) – subalínea iii‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
iii‑A) segurança e resiliência dos sistemas, infraestruturas e redes de transportes. |
Alteração 106
Proposta de regulamento
Artigo 55 – título
|
|
Texto da Comissão |
Alteração |
Medidas para fornecedores e utilizadores de pequena dimensão |
Medidas para PME, empresas em fase de arranque e utilizadores |
Alteração 107
Proposta de regulamento
Artigo 55 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Proporcionar aos fornecedores de pequena dimensão e às empresas em fase de arranque acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
a) Proporcionar às PME e às empresas em fase de arranque acesso prioritário aos ambientes de testagem da regulamentação da IA, desde que cumpram as condições de elegibilidade; |
Alteração 108
Proposta de regulamento
Artigo 55 – n.º 1 – alínea b)
|
|
Texto da Comissão |
Alteração |
b) Organizar atividades de sensibilização específicas sobre a aplicação do presente regulamento adaptadas às necessidades dos fornecedores e utilizadores de pequena dimensão; |
b) Organizar atividades de sensibilização específicas sobre a aplicação do presente regulamento adaptadas às necessidades das PME, das empresas em fase de arranque e dos utilizadores; |
Alteração 109
Proposta de regulamento
Artigo 55 – n.º 1 – alínea c)
|
|
Texto da Comissão |
Alteração |
c) Se for caso disso, criar um canal específico para comunicação com fornecedores e utilizadores de pequena dimensão e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
c) Se for caso disso, criar um canal específico para comunicação com as PME e os utilizadores, as empresas em fase de arranque e outros inovadores, com o intuito de fornecer orientações e responder a consultas sobre a aplicação do presente regulamento. |
Alteração 110
Proposta de regulamento
Artigo 55 – n.º 2‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
2‑A. Se for caso disso, os Estados‑Membros devem procurar estabelecer sinergias e cooperar com as plataformas pertinentes financiadas por programas da União, como os Polos Europeus de Inovação Digital. |
Alteração 111
Proposta de regulamento
Artigo 57 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, e pela Autoridade Europeia para a Proteção de Dados. Podem ser convidadas para as reuniões outras autoridades nacionais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
1. O Comité é composto pelas autoridades nacionais de controlo, que são representadas pelo seu presidente ou funcionário de alto nível equivalente, pela Autoridade Europeia para a Proteção de Dados, por peritos em ética da IA e por representantes da indústria. Podem ser convidadas para as reuniões outras autoridades nacionais, regionais e locais, sempre que as questões debatidas sejam pertinentes para as mesmas. |
Alteração 112
Proposta de regulamento
Artigo 57 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. O Comité é presidido pela Comissão. A Comissão convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. A Comissão presta apoio administrativo e analítico às atividades do Comité nos termos do presente regulamento. |
3. O Comité é copresidido pela Comissão e por um representante escolhido de entre os delegados dos Estados‑Membros. A Comissão convoca as reuniões e prepara a ordem de trabalhos de acordo com as funções do Comité nos termos do presente regulamento e com o seu regulamento interno. A Comissão presta apoio administrativo e analítico às atividades do Comité nos termos do presente regulamento. |
Alteração 113
Proposta de regulamento
Artigo 57 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. O Comité organiza consultas com as partes interessadas, pelo menos, duas vezes por ano. Entre essas partes interessadas devem constar representantes da indústria, de PME e de empresas em fase de arranque, de organizações da sociedade civil, como ONG, de associações de consumidores, dos parceiros sociais e do meio académico, a fim de avaliar a evolução das tendências tecnológicas, as questões relacionadas com a aplicação e a eficácia do presente regulamento, as lacunas regulamentares ou as lacunas observadas na prática. |
Alteração 114
Proposta de regulamento
Artigo 57 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. |
4. O Comité pode convidar peritos e observadores externos para participarem nas suas reuniões e pode realizar intercâmbios com terceiros interessados, a fim de fundamentar as suas atividades, na medida adequada. Para o efeito, a Comissão pode facilitar intercâmbios entre o Comité e outras instituições, órgãos, organismos e grupos consultivos da União. O Comité contacta e ouve ativamente os representantes dos grupos mais vulneráveis aos efeitos discriminatórios da IA, como as pessoas com deficiência. |
Alteração 115
Proposta de regulamento
Artigo 59 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. Os Estados‑Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde e a segurança, bem como conhecimento das normas e dos requisitos legais em vigor. |
4. Os Estados‑Membros devem assegurar que as autoridades nacionais competentes disponham dos recursos financeiros e humanos adequados para exercerem as funções que lhes incumbem nos termos do presente regulamento. Em especial, as autoridades nacionais competentes devem dispor permanentemente de suficiente pessoal cujas competências e conhecimentos especializados incluam uma compreensão profunda das tecnologias de inteligência artificial, dos dados e da computação de dados, dos direitos fundamentais e dos riscos para a saúde, a segurança e o ambiente, bem como conhecimento das normas e dos requisitos legais em vigor. |
Alteração 116
Proposta de regulamento
Artigo 59 – n.º 4‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
4‑A. Todas as informações e documentação que as autoridades nacionais competentes obtenham nos termos das disposições do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 117
Proposta de regulamento
Artigo 60 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. As informações que constam da base de dados da UE devem estar acessíveis ao público. |
3. As informações que constam da base de dados da UE devem estar acessíveis ao público, ser de fácil utilização, de fácil navegação e legíveis por máquina. |
Alteração 118
Proposta de regulamento
Artigo 60 – n.º 5‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
5‑A. Todas as informações e documentação que a Comissão e os Estados‑Membros obtenham nos termos do presente artigo devem ser tratadas em conformidade com as obrigações de confidencialidade estabelecidas no artigo 70.º. |
Alteração 119
Proposta de regulamento
Artigo 61 – n.º 2
|
|
Texto da Comissão |
Alteração |
2. O sistema de acompanhamento pós‑comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos utilizadores ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2. |
2. O sistema de acompanhamento pós‑comercialização deve recolher, documentar e analisar de forma ativa e sistemática dados pertinentes fornecidos pelos utilizadores ou recolhidos por meio de outras fontes sobre o desempenho dos sistemas de IA de risco elevado ao longo da sua vida útil, bem como permitir ao fornecedor avaliar a contínua conformidade dos sistemas de IA com os requisitos estabelecidos no título III, capítulo 2. O acompanhamento pós‑comercialização deve incluir uma análise contínua do ambiente de IA, incluindo outros dispositivos, software e outros sistemas de IA que interagirão com o sistema de IA. |
Alteração 120
Proposta de regulamento
Artigo 65 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Entende‑se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.º, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde e a segurança ou para a proteção dos direitos fundamentais das pessoas. |
1. Entende‑se por «sistema de IA que apresenta um risco» um «produto que apresenta um risco», na aceção do artigo 3.º, ponto 19, do Regulamento (UE) 2019/1020, contanto que estejam em causa riscos para a saúde, a segurança ou o ambiente, ou para a proteção dos direitos fundamentais das pessoas. |
Alteração 121
Proposta de regulamento
Artigo 67 – n.º 1
|
|
Texto da Comissão |
Alteração |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, a autoridade de fiscalização do mercado de um Estado‑Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
1. Se, uma vez realizada a avaliação prevista no artigo 65.º, a autoridade de fiscalização do mercado de um Estado‑Membro verificar que, embora conforme com o presente regulamento, um sistema de IA apresenta um risco para a saúde ou a segurança das pessoas, para o ambiente, para o cumprimento de obrigações impostas por legislação da União ou nacional destinada a proteger os direitos fundamentais ou para outras vertentes de proteção do interesse público, deve exigir ao operador correspondente que tome todas as medidas adequadas para garantir que quando o sistema de IA em causa for colocado no mercado ou colocado em serviço já não apresente esse risco, para o retirar do mercado ou para o recolher num prazo fixado pela autoridade que seja razoável e proporcionado à natureza do risco. |
Alteração 122
Proposta de regulamento
Artigo 69 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. Os códigos de conduta podem ser elaborados por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
3. Os códigos de conduta podem ser elaborados por autoridades nacionais, regionais ou locais, por fornecedores de sistemas de IA a título individual ou por organizações que os representem, ou ambos, nomeadamente com a participação de utilizadores e de quaisquer partes interessadas e das respetivas organizações representativas. Os códigos de conduta podem abranger um ou mais sistemas de IA, tendo em conta a semelhança da finalidade prevista desses sistemas. |
Alteração 123
Proposta de regulamento
Artigo 72 – n.º 1 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) A natureza, a gravidade e a duração da infração e das suas consequências; |
a) A natureza, a gravidade e a duração da infração e das suas consequências; tendo em conta o número de pessoas afetadas e a extensão dos danos por elas sofridos, o caráter intencional ou negligente da infração e qualquer infração anterior relevante; |
Alteração 124
Proposta de regulamento
Artigo 72 – n.º 1 – alínea b‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
b‑A) O grau de cooperação com a autoridade de controlo, a fim de sanar a infração e atenuar os seus eventuais efeitos negativos; |
Alteração 125
Proposta de regulamento
Artigo 72 – n.º 1 – alínea b‑B) (nova)
|
|
Texto da Comissão |
Alteração |
|
b‑B) As medidas eventualmente tomadas pelo fornecedor para atenuar os danos sofridos pelas pessoas; |
Alteração 126
Proposta de regulamento
Artigo 72 – n.º 1 – alínea c‑A) (nova)
|
|
Texto da Comissão |
Alteração |
|
c‑A) Qualquer outro fator agravante ou atenuante aplicável às circunstâncias do caso, como os benefícios financeiros obtidos ou as perdas evitadas, direta ou indiretamente, por intermédio da infração. |
Alteração 127
Proposta de regulamento
Artigo 75 – parágrafo 1
Regulamento (CE) n.º 300/2008
Artigo 4 – n.º 3 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
«Aquando da adoção de medidas de execução relacionadas com especificações técnicas e procedimentos para a aprovação e utilização de equipamentos de segurança respeitantes a sistemas de inteligência artificial na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
«Aquando da adoção de medidas de execução relacionadas com especificações técnicas e procedimentos para a aprovação e utilização de equipamentos de segurança respeitantes a sistemas de inteligência artificial na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, sem interferir com os mecanismos de governação, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 128
Proposta de regulamento
Artigo 76 – parágrafo 1
Regulamento (UE) n.º 167/2013
Artigo 17 – n.º 5 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
«Aquando da adoção de atos delegados nos termos do primeiro parágrafo relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
«Aquando da adoção de atos delegados nos termos do primeiro parágrafo relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, sem interferir com os mecanismos de governação, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 129
Proposta de regulamento
Artigo 78 – parágrafo 1
Diretiva 2014/90/UE
Artigo 8 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. «Aquando da realização das atividades previstas no n.º 1 e da adoção de especificações técnicas e normas de ensaio em conformidade com os n.os 2 e 3 respeitantes a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, Comissão tem em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
4. «Aquando da realização das atividades previstas no n.º 1 e da adoção de especificações técnicas e normas de ensaio em conformidade com os n.os 2 e 3 respeitantes a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, e sem interferir com os mecanismos de governação, a Comissão tem em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 130
Proposta de regulamento
Artigo 79 – parágrafo 1
Diretiva (UE) 2016/797
Artigo 5 – n.º 12
|
|
Texto da Comissão |
Alteração |
12. «Aquando da adoção de atos delegados nos termos do n.º 1 e de atos de execução nos termos do n.º 11 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
12. «Aquando da adoção de atos delegados nos termos do n.º 1 e de atos de execução nos termos do n.º 11 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, sem interferir com os mecanismos de governação, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 131
Proposta de regulamento
Artigo 80 – parágrafo 1
Regulamento (UE) 2018/858
Artigo 5 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. «Aquando da adoção de atos delegados nos termos do n.º 3 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
4. «Aquando da adoção de atos delegados nos termos do n.º 3 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, sem interferir com os mecanismos de governação, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 132
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 1
Regulamento (UE) 2018/1139
Artigo 17 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. «Sem prejuízo do disposto no n.º 2, aquando da adoção de atos de execução nos termos do n.º 1 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
3. «Sem prejuízo do disposto no n.º 2 e do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção de atos de execução nos termos do n.º 1 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 133
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 2
Regulamento (UE) 2018/1139
Artigo 19 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. «Aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
4. «Sem prejuízo do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
Alteração 134
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 3
Regulamento (UE) 2018/1139
Artigo 43 – n.º 4
|
|
Texto da Comissão |
Alteração |
4. «Aquando da adoção de atos de execução nos termos do n.º 1 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
4. «Sem prejuízo do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção de atos de execução nos termos do n.º 1 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
Alteração 135
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 4
Regulamento (UE) 2018/1139
Artigo 47 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. «Aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
3. «Sem prejuízo do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
Alteração 136
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 5
Regulamento (UE) 2018/1139
Artigo 57 – parágrafo 3
|
|
Texto da Comissão |
Alteração |
«Aquando da adoção desses atos de execução relativamente a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
«Sem prejuízo do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção desses atos de execução relativamente a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento.»; |
Alteração 137
Proposta de regulamento
Artigo 81 – parágrafo 1 – ponto 6
Regulamento (UE) 2018/1139
Artigo 58 – n.º 3
|
|
Texto da Comissão |
Alteração |
3. «Aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento.» |
3. «Sem prejuízo do sistema de certificação, supervisão e execução a que se refere o artigo 62.º do presente regulamento, aquando da adoção de atos delegados nos termos dos n.os 1 e 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX [relativo à inteligência artificial], devem ser tidos em conta apenas os requisitos estabelecidos no título III, capítulo 2, desse regulamento.» |
Alteração 138
Proposta de regulamento
Artigo 82 – parágrafo 1
Regulamento (UE) 2019/2144
Artigo 11
|
|
Texto da Comissão |
Alteração |
3. «Aquando da adoção de atos de execução nos termos do n.º 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
3. «Aquando da adoção de atos de execução nos termos do n.º 2 relativos a sistemas de inteligência artificial que constituem componentes de segurança na aceção do Regulamento (UE) YYYY/XX do Parlamento Europeu e do Conselho [relativo à inteligência artificial]*, sem interferir com os mecanismos de governação, devem ser tidos em conta os requisitos estabelecidos no título III, capítulo 2, desse regulamento. |
_______ |
________ |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
* Regulamento (UE) YYYY/XX [relativo à inteligência artificial] (JO …).»; |
Alteração 139
Proposta de regulamento
Artigo 84 – n.º 3‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
3‑A. No prazo de [dois anos a contar da data de aplicação do presente regulamento referida no artigo 85.º, n.º 2,] e subsequentemente de dois em dois anos, a Comissão avalia o impacto e a eficácia do presente regulamento em relação à utilização de energia e a outros impactos ambientais dos sistemas de IA e avalia possibilidade de elaborar legislação para regular a eficiência energética dos sistemas TIC para que o setor contribua para a estratégia e as metas climáticas da União. |
Alteração 140
Proposta de regulamento
Artigo 84 – n.º 7‑A (novo)
|
|
Texto da Comissão |
Alteração |
|
7‑A. Quaisquer futuros atos delegados ou de execução pertinentes dos regulamentos enumerados no anexo II, secção B, que introduzam requisitos obrigatórios para os sistemas de IA de risco elevado estabelecidos no presente regulamento, devem ter em conta as especificidades regulamentares de cada setor e não devem sobrepor‑se aos mecanismos existentes em matéria de governação, avaliação da conformidade e execução nem às autoridades estabelecidas nesses regulamentos. |
Alteração 141
Proposta de regulamento
Anexo I – título
|
|
Texto da Comissão |
Alteração |
TÉCNICAS E ABORDAGENS NO DOMÍNIO DA INTELIGÊNCIA ARTIFICIAL referidas no artigo 3.º, ponto 1 |
(Não se aplica à versão portuguesa.) |
Alteração 142
Proposta de regulamento
Anexo III – parágrafo 1 – ponto 2 – alínea a)
|
|
Texto da Comissão |
Alteração |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade. |
a) Sistemas de IA concebidos para serem utilizados como componentes de segurança na gestão e no controlo do trânsito rodoviário e das redes de abastecimento de água, gás, aquecimento e eletricidade, cuja falha ou anomalia causaria diretamente danos significativos à saúde, ao ambiente natural ou à segurança de pessoas singulares, salvo se esses sistemas estiverem regulados na legislação de harmonização ou na regulamentação setorial. |
ANEXO: LISTA DE ENTIDADES OU PESSOAS SINGULARES
DE QUEM A RELATORA DE PARECER RECEBEU CONTRIBUTOS
GEUC
ETF
Amazon
Airbus
Hitachi
DG MOVE
DG Connect
AESA
AMCHAM
ACEA
CLEPA
Ericsson
PROCESSO DA COMISSÃO ENCARREGADA DE EMITIR PARECER
Título |
Regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e alteração de determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9‑0146/2021 – 2021/0106(COD) |
|||
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Parecer emitido por Data de comunicação em sessão |
TRAN 7.6.2021 |
|||
Relator(a) de parecer Data de designação |
Josianne Cutajar 4.11.2021 |
|||
Artigo 58.º – Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
20.4.2022 |
|
|
|
Data de aprovação |
12.7.2022 |
|
|
|
Resultado da votação final |
+: –: 0: |
37 1 4 |
||
Deputados presentes no momento da votação final |
Magdalena Adamowicz, Andris Ameriks, Izaskun Bilbao Barandica, Karolin Braunsberger‑Reinhold, Marco Campomenosi, Ciarán Cuffe, Karima Delli, Anna Deparnay‑Grunenberg, Ismail Ertug, Gheorghe Falcă, Carlo Fidanza, Søren Gade, Isabel García Muñoz, Jens Gieseke, Elsi Katainen, Kateřina Konečná, Bogusław Liberadzki, Peter Lundgren, Benoît Lutgen, Elżbieta Katarzyna Łukacijewska, Marian‑Jean Marinescu, Tilly Metz, Cláudia Monteiro de Aguiar, Jan‑Christoph Oetjen, Rovana Plumb, Dominique Riquet, Massimiliano Salini, Barbara Thaler, István Ujhelyi, Petar Vitanov, Roberts Zīle, Kosma Złotowski |
|||
Suplentes presentes no momento da votação final |
Josianne Cutajar, Nicola Danti, Vlad Gheorghe, Roman Haider, Pär Holmgren, Guido Reil, Marianne Vind, Jörgen Warborn |
|||
Suplentes (art. 209.º, n.º 7) presentes no momento da votação final |
Susanna Ceccardi, Salvatore De Meo |
VOTAÇÃO NOMINAL FINAL
NA COMISSÃO ENCARREGADA DE EMITIR PARECER
37 |
+ |
ECR |
Carlo Fidanza, Peter Lundgren, Roberts Zīle, Kosma Złotowski |
PPE |
Magdalena Adamowicz, Karolin Braunsberger‑Reinhold, Salvatore De Meo, Gheorghe Falcă, Jens Gieseke, Elżbieta Katarzyna Łukacijewska, Benoît Lutgen, Marian‑Jean Marinescu, Cláudia Monteiro de Aguiar, Massimiliano Salini, Barbara Thaler, Jörgen Warborn, |
RENEW |
Izaskun Bilbao Barandica, Nicola Danti, Søren Gade, Vlad Gheorghe, Elsi Katainen, Jan‑Christoph Oetjen, Dominique Riquet |
S&D |
Andris Ameriks, Josianne Cutajar, Ismail Ertug, Isabel García Muñoz, Bogusław Liberadzki, Rovana Plumb, István Ujhelyi, Marianne Vind, Petar Vitanov |
Verts/ALE |
Ciarán Cuffe, Karima Delli, Anna Deparnay‑Grunenberg, Pär Holmgren, Tilly Metz |
1 |
‑ |
The Left |
Kateřina Konečná |
4 |
0 |
ID |
Marco Campomenosi, Susanna Ceccardi, Roman Haider, Guido Reil |
Legenda dos símbolos utilizados:
+ : votos a favor
‑ : votos contra
0 : abstenções
PROCESSO DA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
Título |
Regras harmonizadas em matéria de inteligência artificial (Regulamento Inteligência Artificial) e alteração de determinados atos legislativos da União |
|||
Referências |
COM(2021)0206 – C9-0146/2021 – 2021/0106(COD) |
|||
Data de apresentação ao PE |
22.4.2021 |
|
|
|
Comissões competentes quanto ao fundo Data de comunicação em sessão |
IMCO 7.6.2021 |
LIBE 7.6.2021 |
|
|
Comissões encarregadas de emitir parecer Data de comunicação em sessão |
ENVI 7.6.2021 |
ITRE 7.6.2021 |
TRAN 7.6.2021 |
CULT 7.6.2021 |
|
JURI 7.6.2021 |
|
|
|
Comissões associadas Data de comunicação em sessão |
CULT 16.12.2021 |
ITRE 16.12.2021 |
JURI 16.12.2021 |
|
Relatores Data de designação |
Brando Benifei 1.12.2021 |
Dragoş Tudorache 1.12.2021 |
|
|
Artigo 58.º – Processo de comissões conjuntas Data de comunicação em sessão |
16.12.2021 |
|||
Exame em comissão |
25.1.2022 |
21.3.2022 |
11.5.2022 |
30.6.2022 |
|
26.10.2022 |
|
|
|
Data de aprovação |
11.5.2023 |
|
|
|
Resultado da votação final |
+: –: 0: |
83 7 12 |
||
Deputados presentes no momento da votação final |
Magdalena Adamowicz, Alex Agius Saliba, Abir Al-Sahlani, Andrus Ansip, Katarina Barley, Pietro Bartolo, Alessandra Basso, Brando Benifei, Theresa Bielowski, Vladimír Bilčík, Malin Björk, Vasile Blaga, Biljana Borzan, Vlad-Marius Botoş, Patrick Breyer, Saskia Bricmont, Anna Cavazzini, Patricia Chagnon, Dita Charanzová, Deirdre Clune, David Cormand, Anna Júlia Donáth, Lena Düpont, Lucia Ďuriš Nicholsonová, Cornelia Ernst, Laura Ferrara, Nicolaus Fest, Jean-Paul Garraud, Alexandra Geese, Sandro Gozi, Sylvie Guillaume, Svenja Hahn, Krzysztof Hetman, Evin Incir, Sophia in ‘t Veld, Virginie Joron, Eugen Jurzyca, Marina Kaljurand, Fabienne Keller, Łukasz Kohut, Arba Kokalari, Marcel Kolaja, Kateřina Konečná, Moritz Körner, Alice Kuhnke, Jean-Lin Lacapelle, Maria-Manuel Leitão-Marques, Jeroen Lenaers, Juan Fernando López Aguilar, Morten Løkkegaard, Antonius Manders, Lukas Mandl, Erik Marquardt, Leszek Miller, Nadine Morano, Javier Moreno Sánchez, Anne-Sophie Pelletier, Paulo Rangel, René Repasi, Karlo Ressler, Diana Riba i Giner, Isabel Santos, Christel Schaldemose, Andreas Schwab, Birgit Sippel, Vincenzo Sofo, Tomislav Sokol, Ivan Štefanec, Annalisa Tardino, Tomas Tobé, Yana Toom, Milan Uhrík, Kim Van Sparrentak, Anders Vistisen, Marion Walsmann, Jadwiga Wiśniewska, Javier Zarzalejos |
|||
Suplentes presentes no momento da votação final |
Maria da Graça Carvalho, Pilar del Castillo Vera, Geoffroy Didier, José Gusmão, Katrin Langensiepen, Karen Melchior, Janina Ochojska, Jan-Christoph Oetjen, Tsvetelina Penkova, Rob Rooken, Róża Thun und Hohenstein, Isabella Tovaglieri, Dragoş Tudorache, Miguel Urbán Crespo, Petar Vitanov, Tomáš Zdechovský, Kosma Złotowski |
|||
Suplentes (art. 209.º, n.º 7) presentes no momento da votação final |
Pascal Arimont, Beatrice Covassi, Alicia Homs Ginel, Peter Jahr, Adam Jarubas, Camilla Laureti, Eva Maydell, Andrey Novakov |
|||
Data de entrega |
22.5.2023 |
VOTAÇÃO NOMINAL FINAL NA COMISSÃO COMPETENTE QUANTO À MATÉRIA DE FUNDO
83 |
+ |
ECR |
Rob Rooken, Jadwiga Wiśniewska, Kosma Złotowski |
ID |
Patricia Chagnon, Jean-Paul Garraud, Virginie Joron, Jean-Lin Lacapelle |
NI |
Laura Ferrara, Milan Uhrík |
PPE |
Magdalena Adamowicz, Pascal Arimont, Vladimír Bilčík, Vasile Blaga, Maria da Graça Carvalho, Pilar del Castillo Vera, Deirdre Clune, Geoffroy Didier, Lena Düpont, Krzysztof Hetman, Peter Jahr, Adam Jarubas, Jeroen Lenaers, Antonius Manders, Lukas Mandl, Eva Maydell, Nadine Morano, Andrey Novakov, Janina Ochojska, Paulo Rangel, Karlo Ressler, Tomislav Sokol, Ivan Štefanec, Marion Walsmann, Javier Zarzalejos, Tomáš Zdechovský |
Renew |
Abir Al-Sahlani, Vlad-Marius Botoş, Anna Júlia Donáth, Lucia Ďuriš Nicholsonová, Sandro Gozi, Svenja Hahn, Sophia in 't Veld, Fabienne Keller, Moritz Körner, Karen Melchior, Jan-Christoph Oetjen, Róża Thun und Hohenstein, Yana Toom, Dragoş Tudorache |
S&D |
Alex Agius Saliba, Katarina Barley, Pietro Bartolo, Brando Benifei, Theresa Bielowski, Biljana Borzan, Beatrice Covassi, Sylvie Guillaume, Alicia Homs Ginel, Evin Incir, Marina Kaljurand, Łukasz Kohut, Camilla Laureti, Maria-Manuel Leitão-Marques, Juan Fernando López Aguilar, Leszek Miller, Javier Moreno Sánchez, Tsvetelina Penkova, René Repasi, Isabel Santos, Christel Schaldemose, Birgit Sippel, Petar Vitanov |
Verts/ALE |
Patrick Breyer, Saskia Bricmont, Anna Cavazzini, David Cormand, Alexandra Geese, Marcel Kolaja, Alice Kuhnke, Katrin Langensiepen, Erik Marquardt, Diana Riba i Giner, Kim Van Sparrentak |
7 |
- |
ECR |
Eugen Jurzyca |
PPE |
Arba Kokalari, Tomas Tobé |
The Left |
Cornelia Ernst, Kateřina Konečná, Anne-Sophie Pelletier, Miguel Urbán Crespo |
12 |
0 |
ECR |
Vincenzo Sofo |
ID |
Alessandra Basso, Nicolaus Fest, Annalisa Tardino, Isabella Tovaglieri, Anders Vistisen |
PPE |
Andreas Schwab |
Renew |
Andrus Ansip, Dita Charanzová, Morten Løkkegaard |
The Left |
Malin Björk, José Gusmão |
Legenda dos símbolos utilizados:
+ : votos a favor
- : votos contra
0 : abstenções