Política

Senado adia votação de projeto sobre Inteligência Artificial

A votação do projeto de lei 2.338/2023, que visa regular o uso da Inteligência Artificial (IA) no Brasil, foi adiada no Senado. O impasse ocorreu devido a divergências sobre a inclusão de medidas contra a desinformação no texto da proposta. A Comissão Especial responsável pela análise do projeto estabeleceu um prazo até quinta-feira (5) para alcançar um consenso.

O presidente da Comissão, senador Carlos Viana (Podemos-MG), explicou que a redação de alguns pontos do relatório gerou questionamentos tanto da oposição quanto do governo. Segundo Viana: “Existem ainda pontos do relatório cuja redação gerou questionamentos por parte da oposição e do governo. Esses pontos o relator concordou que dará 48 horas para que os dois lados se manifestem e nós faremos a votação na próxima quinta-feira (5)”.

O principal ponto de discórdia reside no artigo 2º do projeto, de autoria do presidente do Senado, Rodrigo Pacheco (PSD-MG). Este artigo estabelece a “integridade da informação mediante a proteção e a promoção da confiabilidade, precisão e consistência das informações” como fundamento para o desenvolvimento e uso de sistemas de IA. O projeto também exige demonstração, por meio de testes, de que os sistemas de IA conseguem identificar e reduzir riscos à integridade da informação e combater a disseminação de desinformação e discursos de ódio ou violência, antes de serem disponibilizados no mercado.

Parlamentares da oposição, representados pelo senador Marcos Rogério (PL-RO), temem que essas exigências possam levar à censura na internet. Rogério propôs uma emenda para remover a exigência de integridade da informação, argumentando que a autoridade reguladora poderia usá-la para determinar a remoção de conteúdos. Em resposta a estas preocupações, o relator, senador Eduardo Gomes (PL-TO), afirmou que “o conceito de integridade da informação foi revisto para deixar explícito que é instrumental para a promoção da liberdade de expressão, e não ser instrumentalizado para fins de censura ou violação a outros direitos fundamentais”.

Alexandre Gonzales, especialista em direito digital da Coalizão Direitos na Rede (uma organização que reúne 50 entidades que atuam pelos direitos na internet), apontou que o argumento de que o combate à desinformação equivale a censura é falacioso. Ele esclareceu que a análise da integridade da informação não se focaria em casos ou perfis específicos, mas sim no sistema de IA como um todo. Segundo Gonzales: “Essa parte do projeto exige por parte das grandes empresas, por meio da autoridade que vai coordenar esse processo de governança e regulação, que elas apresentem um mínimo de avaliação de relatório sobre como elas percebem que os sistemas delas estão atuando em relação a uma série de possíveis riscos”.

Mudanças no Projeto: Uma alteração significativa foi a exclusão das big techs do rol de sistemas de IA de alto risco.

Princípios do Projeto: O projeto de lei 2338/2023 estabelece princípios como transparência, segurança, confiabilidade, ética, ausência de vieses discriminatórios, respeito aos direitos humanos e valores democráticos para o desenvolvimento e uso da IA. Também exige a consideração do desenvolvimento tecnológico, inovação, livre iniciativa e livre concorrência. O projeto define ainda quais sistemas de IA são considerados de alto risco e, portanto, sujeitos a regulamentação mais rigorosa. Sistemas que causem danos à saúde, segurança ou outros direitos fundamentais são proibidos.

Governança: O projeto prevê a criação de dois órgãos de governança: o Sistema Nacional de Regulação e Governança de IA (SIA) e o Conselho de Cooperação Regulatória Permanente (CRIA). O SIA terá a responsabilidade de regulamentar o desenvolvimento, implementação e uso de sistemas de IA, incluindo a classificação de sistemas de alto risco e a análise de impacto algorítmico. Já o CRIA, ligado ao Ministério do Trabalho, focará na regulamentação das relações trabalhistas impactadas pela IA, buscando mitigar os impactos negativos no emprego.

Além dessas estruturas governamentais, o projeto exige que os agentes privados que trabalham com IA estabeleçam mecanismos internos de governança e análise de riscos, e classifiquem seus sistemas de acordo com os níveis de risco, aplicando regras mais rígidas para os sistemas de alto risco.

Quer receber as principais notícias do Portal N10 no seu WhatsApp? Clique aqui e entre no nosso canal oficial.

Rafael Nicácio

Co-fundador e redator do Portal N10, sou responsável pela administração e produção de conteúdo do site, consolidando mais de uma década de experiência em comunicação digital. Minha trajetória inclui passagens por assessorias de comunicação do Governo do Estado do Rio Grande do Norte (ASCOM) e da Universidade Federal do Rio Grande do Norte (UFRN), onde atuei como estagiário.Desde 2013, trabalho diretamente com gestão de sites, colaborando na construção de portais de notícias e entretenimento. Atualmente, além de minhas atividades no Portal N10, também gerencio a página Dinastia Nerd, voltada para o público geek e de cultura pop.MTB Jornalista 0002472/RNE-mail para contato: rafael@oportaln10.com.br

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.

Botão Voltar ao topo
Fechar

Permita anúncios para apoiar nosso site

📢 Desative o bloqueador de anúncios ou permita os anúncios em nosso site para continuar acessando nosso conteúdo gratuitamente. Os anúncios são essenciais para mantermos o jornalismo de qualidade.