Estará em vigor em Portugal, em três fases, o Regulamento Europeu sobre Inteligência Artificial (Regulamento UE 2024/1689):

1. Os Capítulos I (disposições gerais) e II (práticas de IA proibidas) são aplicáveis a partir de 2 de fevereiro de 2025.
2. Os Capítulos III (sistemas de IA de risco elevado), V (modelos de IA de finalidade geral), VII (governação) e XII (sanções) e o artigo 78.º (confidencialidade) são aplicáveis a partir de 2 de agosto de 2025.
3. O artigo 6.º, n.º 1 (regras para a classificação de sistemas de IA de risco elevado), e as obrigações correspondentes previstas no Regulamento, são aplicáveis a partir de 2 de agosto de 2027.

Este regulamento estabelece diretrizes harmonizadas para o uso e desenvolvimento de IA dentro da União Europeia, garantindo segurança, transparência e respeito aos direitos fundamentais.

Resumo do Regulamento (UE) 2024/1689:
Objetivo Principal: Estabelecer regras harmonizadas para o desenvolvimento, colocação no mercado e uso de sistemas de inteligência artificial na União Europeia.
Foco em Direitos Fundamentais: Proteção da saúde, segurança e direitos fundamentais (como a proteção de dados e a privacidade).
Classificação de Risco: Sistemas de IA são classificados de acordo com o nível de risco que podem apresentar para a sociedade e para os indivíduos. Sistemas de alto risco exigem maior supervisão.
Boas Práticas de Governança de Dados: Utilização de dados de qualidade, isentos de vieses e erros, para garantir que os sistemas de IA sejam justos e seguros.
Supervisão Humana e Transparência: Obriga a supervisão humana em sistemas críticos e a disponibilidade de informações claras sobre seu funcionamento.
Cibersegurança: Medidas específicas para proteger os sistemas contra ataques cibernéticos.
Responsabilidade Legal: O regulamento define obrigações para programadores, importadores, distribuidores e operadores de sistemas de IA.

Manual de Boas Práticas para PMEs no Contexto do Regulamento
1. Governança de Dados
Garanta que os dados utilizados para treinar modelos de IA sejam diversificados, representativos e estejam em conformidade com os regulamentos de proteção de dados.
Realize auditorias frequentes para verificar vieses e erros nos dados.
2. Documentação Adequada
Mantenha documentação técnica detalhada sobre o desenvolvimento e funcionamento do sistema de IA.
Documente as medidas de mitigação de risco e práticas de gestão de qualidade.
3. Supervisão Humana
Defina processos claros para supervisão humana, especialmente em áreas sensíveis como recrutamento, decisões de crédito e diagnósticos médicos.
Instrua os seus funcionários para monitorizar e intervir, quando necessário.
4. Transparência e Informações ao Utilizador
Proporcione manuais de utilização claros e compreensíveis.
Informe os utilizadores sobre as capacidades e limitações do sistema de IA.
5. Cibersegurança
Implemente medidas robustas de segurança, incluindo testes contra ataques de injeção de dados.
Realize atualizações regulares para mitigar vulnerabilidades.
6. Conformidade e Avaliação Contínua
Antes de lançar um sistema de IA, conduza avaliações de conformidade com o regulamento.
Realize revisões periódicas para garantir que o sistema continua a cumprir os requisitos legais e de segurança.
7. Inclusão e Acessibilidade
Adote princípios de design universal para garantir que a IA seja acessível a todos, incluindo pessoas com deficiência.

Fonte:
https://direito.up.pt/digeucit/2024/07/12/publicado-no-jornal-oficial-da-uniao-europeia-o-regulamento-inteligencia-artificial/

Deixe um comentário

Contacte a CpC para pedidos de ajuda, orientações, conselhos e propor iniciativas:

← Back

Your message has been sent

Atenção
Atenção
Atenção
Aviso!

“A cibersegurança é a arte de proteger a informação digital sem restringir a inovação.”
— Satya Nadella