A revolução da Inteligência Artificial (IA) tem sido marcada por avanços significativos em setores como saúde, indústria e tecnologia. Várias empresas e instituições têm feito um grande investimento no que toca à pesquisa e desenvolvimento, promovendo a integração da inteligência artificial em várias áreas.
A rapidez com que a IA se tem vindo a desenvolver, os impactos que se observam e, mais ainda, que se anteveem são, efetivamente surpreendentes e revolucionários. No entanto, é importante considerar os aspectos éticos, legais e de privacidade para que seja garantido um uso responsável e sadio da IA em benefício da sociedade como um todo.
A Lei da Inteligência Artificial, conhecida como Lei da IA, foi apresentada pela primeira vez em abril de 2021, pela Comissão Europeia. No entanto, foi no final do ano de 2023, a 9 de dezembro, que a União Europeia (UE) assinalou um marco histórico, ao acordar o primeiro regulamento global sobre IA. Trata-se, pois, de um acordo que revela a importância e a urgência de regulamentar um domínio tão vasto e até, potencialmente perigoso como a IA.
Várias foram as negociações marcadas por intensos debates, num esforço conjunto entre o Parlamento Europeu e o Conselho da UE. Ainda que, com carácter provisório, este Regulamento assinala um avanço crucial na legislação sobre a IA, embora a sua plena aplicação só esteja prevista para o final de 2026.
Segundo o website oficial da União Europeia, a presidente da Comissão Europeia, Ursula von der Leyen, declarou: «A inteligência artificial já afeta as nossas vidas e estamos apenas no início. Utilizada de forma sensata e generalizada, a IA promete enormes benefícios para a nossa economia e a nossa sociedade. Acolho por isso com muito agrado o acordo político alcançado hoje pelo Parlamento Europeu e pelo Conselho sobre o Regulamento Inteligência Artificial da UE, que constitui o primeiro quadro jurídico abrangente relativo à inteligência artificial em todo o mundo. Trata-se de um momento histórico. O Regulamento Inteligência Artificial transporta os valores europeus para uma nova era. Ao centrar a regulamentação nos riscos identificáveis, o acordo de hoje promoverá a inovação responsável na Europa. Ao garantir a segurança e os direitos fundamentais das pessoas e das empresas, apoiará o desenvolvimento, a implantação e a adoção de uma IA fiável na UE. O nosso Regulamento Inteligência Artificial contribuirá de forma considerável para o desenvolvimento de regras e princípios globais com vista a uma IA antropocêntrica.»
As novas regras, que terão por base uma definição de inteligência artificial orientada para o futuro, serão aplicadas diretamente e da mesma forma em todos os Estados-Membros, de acordo com uma abordagem baseada nos riscos que representam para os fornecedores e utilizadores da IA. As regras propostas incluem: abordar os riscos especificamente criados pelas aplicações de IA; propor uma lista de pedidos de alto risco; estabelecer requisitos claros para os sistemas de IA para aplicações de risco elevado; definir obrigações específicas para os utilizadores de IA e os fornecedores de aplicações de alto risco; propor uma avaliação da conformidade antes do sistema de IA ser colocado em serviço ou colocado no mercado; propor a aplicação da legislação após a colocação desse sistema de IA no mercado; propor uma estrutura de governação a nível europeu e nacional. Tendo em conta o seu nível de risco, implicará mais ou menos regulamentação. Uma vez aprovadas, estas serão as primeiras regras do mundo sobre a IA.
De acordo com o porta voz do Parlamento Europeu, Jaume Duch Guillot, os sistemas de IA de riscos são classificados: de risco elevado e incluem a tecnologia de IA utilizada em infraestruturas críticas (por exemplo, transportes), suscetíveis de pôr em risco a vida e a saúde dos cidadãos; formação educativa ou profissional, que pode determinar o acesso à educação e ao curso profissional da vida de alguém (por exemplo, pontuação dos exames); componentes de segurança dos produtos (por exemplo, aplicação de IA em cirurgia assistida por robôs); emprego, gestão de trabalhadores e acesso ao trabalho por conta própria (por exemplo, software de seleção de CV para procedimentos de recrutamento); serviços públicos e privados essenciais (por exemplo, pontuação de crédito que nega aos cidadãos a oportunidade de obter um empréstimo); aplicação da lei que possa interferir com os direitos fundamentais das pessoas (por exemplo, avaliação da fiabilidade dos elementos de prova); gestão da migração, do asilo e do controlo das fronteiras (por exemplo, verificação da autenticidade dos documentos de viagem); administração da justiça e processos democráticos (por exemplo, aplicação da lei a um conjunto concreto de factos). Os sistemas de IA de risco elevado estarão sujeitos a obrigações rigorosas antes de poderem ser colocados no mercado: sistemas adequados de avaliação e atenuação dos riscos; elevada qualidade dos conjuntos de dados que alimentam o sistema para minimizar os riscos e os resultados discriminatórios; exploração da atividade para assegurar a rastreabilidade dos resultados; documentação pormenorizada que forneça todas as informações necessárias sobre o sistema e a sua finalidade para que as autoridades possam avaliar a sua conformidade; informação clara e adequada ao utilizador; medidas de supervisão humana adequadas para minimizar os riscos; alto nível de robustez, segurança e precisão. Os sistemas de IA de risco elevado serão avaliados tanto antes de serem colocados no mercado como durante todo o seu ciclo de vida.
O risco limitado refere-se a sistemas de IA com obrigações de transparência específicas. Ao utilizar sistemas de IA, como os chatbots (software baseado em uma Inteligência Artificial capaz de manter uma conversa em tempo real por texto ou por voz), os utilizadores devem estar cientes de que estão a interagir com uma máquina, para que possam tomar uma decisão informada de continuar ou recuar.
O risco mínimo ou nenhum risco é o ato relativo à IA que permite a utilização gratuita de IA de risco mínimo. Inclui aplicações como jogos de vídeo baseados em IA ou filtros de spam. A grande maioria dos sistemas de IA atualmente utilizados na UE insere-se nesta categoria.
Sendo a IA é uma tecnologia em constante evolução, as propostas saídas da comissão europeia passam por uma abordagem orientada para o futuro, no sentido de haver uma constante adaptação das regras às mudanças tecnológicas, exigindo, uma gestão contínua da qualidade e dos riscos por parte dos fornecedores.
Muito recentemente, em fevereiro de 2024, foi criado na Comissão Europeia, o Gabinete Europeu da Inteligência Artificial, responsável por supervisionar o cumprimento e a aplicação do Regulamento Inteligência Artificial com os Estados-Membros. Tem como objetivo criar um ambiente propenso ao respeito pela dignidade humana, pelos direitos e pela confiança, por parte das tecnologias de IA. Compete-lhe ainda promover a colaboração, a inovação e a investigação no domínio da IA entre as diversas partes interessadas, visando também participar no diálogo e cooperação mundial no que toca a esta temática. Pretende-se assim, que o Gabinete Europeu de Inteligência Artificial coloque a Europa como líder no desenvolvimento ético e sustentável das tecnologias de IA.
Segundo o jornal Observador, o vice-presidente e chefe de Inteligência Artificial da Meta (proprietária do Facebook, Instagram e WhatsApp), Yann LeCun, prevê um futuro em que os sistemas de Inteligência Artificial (IA) serão “mais inteligentes do que os humanos em todas as áreas”, embora descarte que dominem a humanidade, pois “serão obedientes”.
Estaremos nós preparados para o que ainda virá?
Patrícia Maravilha, in Voz de Lamego, ano 94/18, n.º 4746, de 13 de março 2024.