Edição online quinzenal
 
Quarta-feira 24 de Abril de 2024  
Notícias e Opnião do Concelho de Almeirim de Portugal e do Mundo
 

O ELO QUE FALTAVA NA ESTRATÉGIA EUROPEIA DE IA

27-08-2021 - Aida Ponce Del Castillo

A estratégia da Comissão Europeia para a inteligência artificial centra-se na necessidade de estabelecer 'confiança' e 'excelência'. O regulamento recentemente proposto para a IA  ( inteligência artificial) , afirma a Comissão, irá aumentar a confiança nesta nova tecnologia e abordar os seus riscos; a excelência virá mais tarde, graças ao investimento e à inovação dos estados membros da UE. Com essas duas questões resolvidas, a modernização da IA ​​europeia deve se acelerar.

Infelizmente, proteger os direitos fundamentais dos cidadãos da UE - algo que deveria estar no cerne dos objectivos da regulamentação da IA ​​- parece ser uma questão secundária ... e proteger os direitos dos trabalhadores não faz parte dela de forma alguma.

A IA é o principal componente da agenda digital europeia e o pacote legislativo  da Comissão é fundamental para a proposta de mercado único de dados. O projeto de regulamento estabelece regras sobre a introdução, implementação e utilização de sistemas de IA. Ele adopta uma abordagem baseada no risco, determinando usos inaceitáveis, de alto, limitado e baixo risco.

De acordo com a proposta, os sistemas de IA considerados de "alto risco" - que apresentam riscos significativos à saúde e segurança, ou aos direitos fundamentais das pessoas - devem passar por uma avaliação de conformidade ex ante , realizada pelo fornecedor e sem validação prévia. autoridade externa. Os requisitos incluem: alta qualidade dos conjuntos de dados, boa governança e práticas de gestão de dados, obrigação de manter registos abrangentes, gestão de riscos adequada, documentação técnica detalhada, instruções transparentes para os usuários, supervisão humana adequada, resultados explicáveis ​​e um alto nível de precisão, robustez e ciber segurança.

A Comissão afirma que esta definição de IA, bem como a abordagem baseada no risco subjacente ao projecto de regulamento, se baseia em consulta pública, mas como a esmagadora maioria dos inquiridos no seu  Relatório Oficial de IA de  2020 eram empresas industriais e tecnológicas, este exercício parece ter estado longe de ser democrático. Essas empresas, ao mesmo tempo que pretendem promover o conhecimento, a ciência e a tecnologia, orientam o processo de regulação em uma direcção próxima aos seus interesses. A voz da sociedade, especialmente a dos sindicatos, foi abafada e eliminada.

O regulamento tem várias falhas. Entre eles, a abordagem estreita baseada no risco da Comissão, a ausência de um mecanismo de reparação, a ausência de cláusulas relativas à responsabilidade por danos relacionados aos sistemas de IA e a dependência de ambientes de teste regulamentares para criar áreas 'seguras'. »Onde testar novos modelos de negócios. O projecto também não contribui do ponto de vista da protecção do trabalhador.

Para resolver essa deficiência, uma directiva ad hoc com foco na IA poderia ser implementada no contexto do emprego, o que protegeria os trabalhadores (incluindo aqueles que trabalham na economia de plataforma ) e permitiria que eles exercessem seus direitos e liberdades individualmente ou colectivamente.

Essa diretiva deve abordar várias questões-chave. Em primeiro lugar, deve definir as responsabilidades dos empregadores para evitar os riscos de IA, da mesma forma que devem avaliar os perigos de segurança e saúde ocupacional. Os riscos da IA ​​são ainda mais ampliados, porque incluem potenciais abusos de poder de direcção decorrentes da natureza da relação de trabalho, bem como outros riscos para os trabalhadores relacionados à sua privacidade e direitos fundamentais, e à protecção de seus dados e sua saúde geral .

Garantir a privacidade e a protecção dos dados dos trabalhadores também é essencial, porque a IA tem sede de dados e os trabalhadores são uma fonte importante deles. O Regulamento Geral de Protecção de Dados da UE (GDPR) é uma ferramenta poderosa que, em teoria, se aplica aos dados do trabalhador em um contexto de emprego, mesmo quando usado por um sistema de IA, mas na prática é quase impossível para os trabalhadores exercerem seus direitos sob o GDPR na frente de um empregador. A UE deve implementar disposições adicionais para garantir que o podem fazer.

Também é importante que o propósito dos algoritmos de IA possa ser explicado. Nesse caso, as disposições da empresa sobre transparência no local de trabalho não protegerão os trabalhadores. Em vez disso, os empregadores, como usuários de algoritmos, devem considerar o dano potencial que sua implementação pode causar no local de trabalho. A utilização de valores ou variáveis ​​enviesados ​​pode levar à caracterização dos trabalhadores por meio de perfis, com foco em pessoas específicas para categorizá-los de acordo com seu "nível de risco" estimado.

Outra prioridade é garantir que os trabalhadores possam exercer o seu “direito a uma explicação”. Isso implica que os empregadores seriam obrigados a consultar os funcionários antes de implementar os algoritmos, em vez de relatá-los posteriormente. Além disso, as informações fornecidas devem permitir que os trabalhadores compreendam as consequências de uma decisão automatizada.

A nova directiva ad hoc deve também garantir que o princípio do “ser humano responsável” seja respeitado em todas as interacções entre humanos e máquinas no trabalho. Isso implica que os humanos têm a última palavra e são explicados quais fontes de dados são responsáveis ​​pelas decisões finais quando humanos e máquinas agem juntos. Os sindicatos devem ser vistos como parte do componente "humano" e desempenhar um papel activo ao lado dos gerentes, equipes de suporte de TI e consultores externos.

Além disso, os responsáveis ​​pela legislação da UE devem proibir a vigilância algorítmica dos trabalhadores. Actualmente, o controle dos trabalhadores é regulamentado por leis nacionais, geralmente anteriores ao RGPD, que não abrangem análises avançadas e intrusivas de pessoas. Ferramentas baseadas em IA, como biometria, aprendizado de máquina, análise semântica, análise de sentimento e tecnologia de detecção de emoção, podem medir biologia, comportamento, concentração e emoções. Essa vigilância algorítmica não examina passivamente os trabalhadores, mas, em vez disso, "extrai" suas vidas pessoais, gera activamente uma imagem e, em seguida, toma decisões.

Finalmente, os trabalhadores devem ser capazes de exercer seu arbítrio aprendendo sobre IA. Ensinar a eles habilidades técnicas digitais para que possam usar sistemas específicos não é suficiente. Para entender o papel e os efeitos da IA ​​em seu ambiente de trabalho, eles devem ser informados e treinados e se envolver de forma crítica com a tecnologia.

A regulamentação dos sistemas de IA, principalmente aqueles considerados de alto risco, não deve se basear na autoavaliação de seus fornecedores. A Europa não pode tornar-se um líder global neste domínio e fomentar a confiança genuína do público nesta tecnologia emergente e na sua verdadeira aceitação, a menos que proteja e envolva eficazmente os seus cidadãos e trabalhadores. Nunca poderá haver uma IA ' centrada nas  pessoas' se os trabalhadores e seus representantes forem incapazes de detectar os riscos específicos associados ao uso dessa tecnologia.

Neste sentido, o projecto de legislação da Comissão deixa muito a desejar. O Parlamento Europeu e os Estados-Membros da UE devem agora agir e integrar especificamente a protecção do trabalhador na versão final deste regulamento fundamental.

AIDA PONCE DEL CASTILLO

Aida Ponce Del Castillo é investigadora sénior da Unidade de Foresight do Instituto Sindical Europeu, com sede em Bruxelas.

 

Voltar 


Subscreva a nossa News Letter
CONTACTOS
COLABORADORES
 
Eduardo Milheiro
Coordenador
Marta Milheiro
   
© O Notícias de Almeirim : All rights reserved - Site optimizado para 1024x768 e Internet Explorer 5.0 ou superior e Google Chrome