O Senado aprovou alterações significativas no projeto de lei que regulamenta a Inteligência Artificial (IA) no Brasil. Uma das principais mudanças foi a exclusão das big techs do rol de empresas que utilizam sistemas de IA de alto risco. A decisão, fruto de um acordo entre as bancadas, visa acelerar a tramitação do projeto de lei 2.338/2023, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG).
O projeto original classificava como de alto risco os sistemas de IA utilizados pelas plataformas digitais na produção, análise, recomendação e distribuição de conteúdo em larga escala e de forma automatizada, com o intuito de maximizar o tempo de uso e engajamento dos usuários. Esta definição, que visava regulamentar a atuação das big techs, foi removida.
Para o relator do projeto, senador Eduardo Gomes (PL-TO), a retirada desse trecho foi crucial para viabilizar o avanço do texto na Comissão Temporária Interna sobre Inteligência Artificial (CTIA). Entretanto, a decisão gerou polêmica.
Bia Barbosa, coordenadora de incidência da Repórter Sem Fronteiras na América Latina, criticou a exclusão, argumentando que: “Não faz nenhum sentido um projeto de lei de regulação de IA que não trate dos sistemas de recomendação e moderação de conteúdo, que são sistemas de alto risco. Só que as plataformas, assim como fazem em todos os países do mundo, se opõem de maneira significativa a qualquer regulação que venha afetar os seus negócios e, aqui no Brasil, elas têm um aliado muito significativo, que são os parlamentares de extrema-direita”. Ela apontou a disseminação de desinformação durante eleições e a pandemia de COVID-19, e os ataques à democracia nas redes sociais como exemplos concretos dos danos causados por esses sistemas.
O projeto, mesmo com a alteração, ainda define diversos sistemas de IA como de alto risco, sujeitos a regras mais rígidas de governança, monitoramento e fiscalização. Entre eles estão:
- Sistemas que afetam a saúde e segurança, como diagnósticos médicos;
- Sistemas usados na seleção de trabalhadores, estudantes ou no atendimento a serviços públicos;
- Sistemas de controle de trânsito e redes de abastecimento (água e eletricidade), especialmente quando há risco à integridade física;
- Sistemas de avaliação de desempenho e comportamento em empregos;
- Sistemas de avaliação de prioridades em serviços essenciais (bombeiros, assistência médica);
- Sistemas usados pelo Poder Judiciário em investigações criminais, com risco às liberdades individuais ou ao Estado Democrático de Direito;
- Sistemas de IA na área da saúde (diagnóstico e procedimentos médicos);
- Sistemas para o desenvolvimento de veículos autônomos em espaços públicos.
O projeto também estabelece princípios para o desenvolvimento e uso da IA, enfatizando a transparência, segurança, confiabilidade, ética, isenção de vieses discriminatórios, respeito aos direitos humanos e aos valores democráticos. Além disso, o projeto busca conciliar o desenvolvimento tecnológico com a inovação, a livre iniciativa e a livre concorrência. Por fim, o projeto proíbe o desenvolvimento de tecnologias de IA que causem danos à saúde, segurança ou outros direitos fundamentais, incluindo sistemas que classifiquem pessoas para acesso a bens e serviços de forma ilegítima ou desproporcional, ou aqueles que facilitem o abuso ou exploração sexual de crianças e adolescentes.
Apesar da expectativa de aprovação na terça-feira (3), a votação foi adiada para quinta-feira (5), devido à falta de consenso sobre os trechos que exigem integridade da informação para sistemas de IA.
Quer receber as principais notícias do Portal N10 no seu WhatsApp? Clique aqui e entre no nosso canal oficial.