A Comissão temporária responsável por discutir o marco legal de Inteligência Artificial (IA) no Senado Federal realizou nesta segunda-feira, 1º, a primeira audiência pública desde a apresentação do mais recente relatório do projeto de lei (PL 2338/2023), reunindo parte das entidades críticas ao texto e especialistas. O debate foi marcado pela visão de que a versão atual da proposta pode ser mais “excessiva” do que o ideal.
A audiência teve como tema o ponto que mais gera divergência sobre o projeto, que é a definição dos riscos. Pela proposta, os sistemas classificados como de “alto risco” ou que “produzam efeitos jurídicos relevantes”, são submetidos a algumas obrigações, entre elas, explicar como a decisão é tomada pela IA e dispor de supervisão humana. A medida vem sendo justificada como uma forma de garantir a transparência (sendo ressalvado o segredo industrial) e a adequação à proteção de dados pessoais e ao direito autoral.
Durante o debate, o diretor-executivo do Conselho Digital, Felipe França, – entidade que tem provedores como Google, Meta, TikTok e X entre associados – manifestou preocupação com eventual impacto da lei nas redes sociais, a partir de determinados sistemas que estão no rol de alto risco. Um deles é a “produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.
“A gente sabe que quando ele [relator] está colocando essa tecnologia, de sistema de recomendação e distribuição, ele também está mirando no feed das plataformas […] E por ser um sistema de alto risco, ele vai estar sob o SIA [Sistema Nacional de Regulação e Governança de Inteligência Artificial] sobre a ANPD [Autoridade Nacional de Proteção de Dados] e vai ser regulado. Então é esse é um primeiro ponto que a gente precisa prestar atenção, estão regulando a tecnologia e não o risco e isso vai afetar nosso dia a dia”, opina.
Outro tipo de sistema de alto risco, como o de identificação e autenticação biométrica para o reconhecimento de emoções, França reconhece que a intenção do legislador possa ser mirar o reconhecimento facial em locais públicos, onde há preocupação com o viés discriminatório, mas entende que acaba afetando aplicações das redes sociais como o uso de “filtros”.
Ao listar recomendações de ajuste, o representante do Conselho Digital defendeu ainda que o direito autoral não seja tratado junto ao PL de IA, citando como exemplo o processo de desenvolvimento do ChatGPT, que envolve milhões de dados que estavam disponíveis na internet, o que envolve diversos autores. “É uma quantidade imensa e é muito difícil”, afirmou França.
Segurança
Por outro lado, a advogada Patrícia Peck, especialista em Direito Digital e membro do Comitê Nacional de Cibersegurança (CNCiber) pontuou que o objetivo de proteção de direitos impostos na lei são positivos, mas precisam de ajustes. Também citando a restrição do desenvolvimento de IA de identificação biométrica, Peck destaca as exceções permitidas são voltadas para a segurança pública.
“Fica um desafio ou ainda a revisitação da matéria para quando [o sistema] é usado para fins de segurança privada […] Uma coisa é definir que tem que se garantir ali uma proteção contra o risco de viés, de discriminação. Este ponto está completamente correto dentro da legislação e acompanha todas as tendências internacionais. No entanto, na hora em que se traz ali a exceção específica mais à segurança pública, pode dar margem à dúvida em casos de utilização privada, como inseguranças que acontecem em shopping center, no comércio, nas agências de bancos, nas escolas”, exemplifica.
Para Peck, o tema da segurança “poderia ser melhor acomodado de forma setorizada”.
No mais, a advogada lembrou que a tecnologia envolve planejamento e uma eventual reclassificação de risco pode afetar o desenvolvimento. “Sabemos que os investimentos em inteligência artificial são altos e são de médio para longo prazo. Então, uma mudança de reclassificação de risco pode significar não apenas a necessidade de mais controles e implementar governança, o que traz com toda a certeza custos, mas também até de se reclassificar para um risco ‘inaceitável’, o que gera assim uma certa insegurança”, alertou Peck.
Risco excessivo
Na visão de mercado, Marcelo Almeida, diretor de Relações Institucionais e Governamentais da Associação Brasileira das Empresas de Software (ABES), também fez críticas. “O cenário posto é um convite à criação de direitos, deveres e obrigações, mas muitas vezes com desprestígio de inovação e desenvolvimento tecnológico”, disse.
Almeida criticou diretamente a previsão de uma avaliação preliminar para sistemas de alto risco, onde o desenvolvedor ou a empresa que vai aplicar a tecnologia precisa comprovar que a ferramenta está de acordo com a lei, e se manifestou contra a lista de “riscos excessivos” que são os sistemas que serão proibidos no país.
“Aquilo que está sendo chamado de riscos excessivos, na verdade, é um excesso (veja lista abaixo). É esse, verdadeiramente, o risco. Aquilo que está sendo chamado de avaliação preliminar, na verdade, é uma censura. E aquilo que está sendo chamado de alto risco, na verdade, é aquilo que nós deveríamos assumir como o risco de ter uma inteligência artificial brasileira competitiva”, alegou Almeida.
São sistemas de risco excessivo, conforme o mais recente substitutivo:
- que empreguem técnicas subliminares que tenham por objetivo ou por efeito induzir o comportamento da pessoa natural ou de grupos de maneira que cause ou seja provável que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
- que explorem quaisquer vulnerabilidades de pessoa natural ou de grupos com o objetivo ou o efeito de induzir o seu comportamento de maneira que cause ou seja provável que cause danos à saúde, segurança ou outros direitos fundamentais próprios ou de terceiros;
- pelo poder público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento social ou em atributos da sua personalidade, por meio de pontuação universal, para o acesso a bens e serviços e políticas públicas, de forma ilegítima ou desproporcional;
- que possibilitem a produção, disseminação ou facilitem a criação de material que caracterize ou represente abuso ou exploração sexual de crianças e adolescentes;
- que avaliem os traços de personalidade, as características ou o comportamento passado, criminal ou não, de pessoas singulares ou grupos, para avaliação de risco de cometimento de crime, infrações ou de reincidência;
- sistemas de armas autônomas (SAA); e
- sistemas de identificação biométrica à distância, em tempo real e em espaços acessíveis ao público [com algumas exceções]