A história da Inteligência Artificial (IA) remonta à década de 1950, quando Alex Turing começou a explorar maneiras de criar máquinas capazes de realizar tarefas que normalmente exigiriam inteligência humana, como resolver problemas, reconhecer padrões e tomar decisões. Desde então, a IA tem avançado de forma exponencial, passando de simples programas matemáticos para sistemas altamente sofisticados.
Já há algumas décadas, ferramentas de IA já estão amplamente integradas em setores essenciais, como a saúde, onde são utilizadas para diagnósticos mais rápidos e precisos, tratamentos personalizados e desenvolvimento de medicamentos. Na educação, plataformas de ensino adaptativo oferecem conteúdos ajustados às necessidades de cada aluno, enquanto na segurança pública, a IA auxilia no monitoramento e na prevenção de crimes.
No entanto, com a crescente popularização da tecnologia e sua aplicação em áreas cada vez mais sensíveis, como a análise de dados pessoais e a automação de processos decisórios, torna-se essencial adotar medidas para garantir que seu uso seja seguro, ético e em benefício da sociedade.
Nesse sentido, no Brasil, a regulamentação dessa tecnologia surge como um passo essencial para equilibrar o potencial de inovação com a necessidade de proteger direitos fundamentais. O Projeto de Lei 2338/2023, de autoria do Senador Rodrigo Pacheco, representa um marco regulatório robusto, já aprovado no Senado Federal e que aguarda revisão e sanção presidencial para entrar em vigor.
O texto legislativo estabelece 20 fundamentos e 17 princípios que refletem uma preocupação abrangente com a centralidade da pessoa humana, a justiça social e a sustentabilidade ambiental. Entre os fundamentos, destacam-se a proteção da privacidade, a transparência na operação de sistemas de IA e o estímulo à inovação responsável. Princípios como supervisão humana, não discriminação e segurança reforçam a necessidade de um desenvolvimento tecnológico ético, garantindo que a tecnologia sirva à sociedade e não o contrário. Ao priorizar esses valores, o Brasil alinha sua regulamentação às melhores práticas internacionais, como as orientações da União Europeia e da OCDE.
Uma das inovações mais significativas do projeto é a classificação dos sistemas de IA com base nos riscos associados à sua aplicação, permitindo uma regulamentação mais específica e proporcional. Sistemas de alto risco incluem aqueles usados em áreas sensíveis, como saúde, segurança pública, transporte autônomo e educação. Nesses casos, o projeto exige avaliações de impacto algorítmico realizadas periodicamente, medidas específicas de governança para garantir segurança e transparência e protocolos rigorosos de auditoria e mitigação de riscos. Por outro lado, sistemas de risco excessivo, que exploram vulnerabilidades, manipulam comportamentos ou promovem discriminação por meio de pontuações sociais, são terminantemente proibidos. Exemplos incluem o uso indiscriminado de reconhecimento facial em espaços públicos, salvo em situações regulamentadas que protejam a privacidade e evitem abusos.
Outro aspecto inovador do PL 2338/2023 é a definição de regras claras de responsabilização civil. Fornecedores e operadores de sistemas de alto risco serão responsabilizados de forma objetiva pelos danos causados, independentemente de culpa, o que reforça a segurança jurídica para as vítimas. Nos casos de menor risco, adota-se a inversão do ônus da prova em favor da vítima, presumindo-se a culpa do operador ou fornecedor. Essa abordagem busca proteger os usuários e desestimular práticas negligentes. Além disso, o texto prevê sanções severas para infrações, como multas que podem alcançar até R$ 50 milhões, suspensão ou proibição das atividades da empresa infratora e outras medidas administrativas.
O projeto também é enfático na proteção dos direitos dos usuários. A transparência é um dos pilares centrais, garantindo que pessoas possam compreender como decisões automatizadas são tomadas. Entre as medidas propostas estão o direito de obter explicações claras sobre decisões automatizadas, salvaguardas contra discriminação algorítmica e a possibilidade de contestar decisões tomadas por sistemas de IA, assegurando maior controle por parte dos indivíduos.
A adoção da IA pode gerar deslocamento de empregos, especialmente em setores de automação intensiva. Para mitigar esse impacto, o projeto prevê programas de capacitação profissional e iniciativas para preparar os trabalhadores para novas funções em um mercado mais automatizado. No entanto, a retirada de dispositivos que tratavam de demissões em massa do texto final gerou preocupação entre especialistas e sindicatos, já que a transição tecnológica deve ser acompanhada de políticas públicas que protejam os trabalhadores mais vulneráveis.
Outro aspecto relevante do projeto é a proteção aos direitos autorais. Artistas e criadores poderão se opor ao uso de suas obras por sistemas de IA, além de exigir remuneração justa. Essa medida protege a propriedade intelectual e assegura que o avanço tecnológico respeite os direitos individuais. Além disso, a legislação promove o equilíbrio entre inovação tecnológica e proteção de direitos, garantindo que o uso de conteúdos criativos respeite os direitos da personalidade e as normas vigentes.
A governança da IA será conduzida pelo Sistema Nacional de Regulação de IA (SIA), que integra órgãos como a Autoridade Nacional de Proteção de Dados (ANPD) e agências setoriais. Esse modelo descentralizado busca harmonizar a aplicação da lei em diferentes setores, garantindo eficiência e transparência.
Apesar dos avanços, o PL enfrenta desafios, especialmente em questões como a liberdade de expressão e a integridade da informação. Alterações no texto final levantaram dúvidas sobre a influência de grupos econômicos poderosos, destacando a importância de manter o interesse público como prioridade. O sucesso dessa regulamentação dependerá da capacidade do Brasil de consolidar uma governança democrática, participativa e inclusiva, que acompanhe a evolução tecnológica sem abrir mão de valores fundamentais.
A aprovação do PL 2338/2023 é um passo necessário para enfrentar os desafios trazidos pela evolução tecnológica, garantindo que a Inteligência Artificial seja desenvolvida e utilizada de maneira ética, segura e inclusiva. A regulação não deve ser vista como um freio à inovação ou ao progresso, mas como um trilho ético que orienta o desenvolvimento tecnológico, assegurando que seus benefícios alcancem toda a sociedade sem comprometer direitos fundamentais. Trata-se de equilibrar o avanço da IA com a proteção de valores humanos, fomentando um futuro em que a tecnologia seja uma aliada para o desenvolvimento sustentável e o bem-estar coletivo.
Walter Calza Neto, DPO do Corinthians.