IA para gestão da privacidade

Atualmente, é praticamente impossível falar sobre tecnologia e inovação sem citar Inteligência Artificial. Se os avanços no uso de IA são visíveis em inúmeras empresas e em nossas próprias rotinas, não seria diferente quando o tema é proteção de dados.

Recentemente, a Autoridade Nacional de Proteção de Dados (ANPD) publicou a sua segunda análise do Projeto de Lei sobre inteligência artificial no Brasil, em que propõe a criação de um modelo institucional de regulação de sistemas de IA, sendo a ANPD o órgão regulador central do tema.

Ao refletirmos especificamente sobre a Lei Geral de Proteção de Dados (LGPD), com todas as suas complexidades e particularidades, vemos, sem dúvidas, o potencial do uso de IA, para também acelerar o mapeamento e a descoberta de dados, bem como a gestão de riscos.

Vale lembrar que um projeto de adequação à LGPD envolve um forte trabalho de conscientização, produção documental, mapeamento de processos, gestão de riscos, entre outras ações estratégicas. Essas atividades podem ser realizadas de forma manual ou automatizadas através de workflows, por exemplo.

Assim, o uso de IA Generativa tende a automatizar processos importantes quando da realização de um projeto de LGPD. Através dela, é possível avaliar todos os riscos quanto à privacidade e à proteção de dados aos quais a empresa está exposta. Isso acelera o trabalho das equipes que poderão dedicar mais tempo nas demais atividades do projeto, que possuem todas as suas características e peculiaridades.

Ao mesmo tempo, muitas das principais plataformas que usam IA Generativa precisam fazer o retreinamento de modelos (fine-tunning), caso queiram potencializar a resposta de um prompt com dados corporativos sem expor a privacidade ou utilizar técnicas mais sofisticadas de indexação vetorial para o mesmo fim.

Uma IA Generativa para privacidade tem como premissa básica a proteção de dados. Logo, é necessário que dados de uma empresa não sejam usados para gerar respostas para outras companhias, sendo cada ambiente isolado e com modelos treinados para aquele contexto específico.

Em termos práticos, imagine o time de privacidade fazendo um questionário para um fornecedor sobre suas ações na área. Quem fará a avaliação? Quem avalia os riscos gerados pelas respostas? Tudo isso pode ser acelerado.

Imagine você, como DPO (Data Protection Officer), respondendo um pedido de um titular e recebendo sugestões de retornos a partir de dados treinados com o seu perfil. Por que não ter um co-piloto para tudo isso?

Esses são apenas alguns exemplos do que será possível fazer para aprimorar programas de proteção de dados com o uso cada vez maior de IA e suas inúmeras aplicações. Se o tema Inteligência Artificial é recorrente quando se fala em tecnologia, também será quando falamos em privacidade e proteção de dados.

Aline Deparis, CEO da Privacy Tools.

Tags

Compartilhe

MCom prorroga desligamento da TV analógica em mais de mil cidades; veja a lista
O Mundo Depois de Nós: diretor explica importância de Friends no filme
Estúdio de The Day Before fecha dias após lançamento do game
Globo de Ouro 2024: onde assistir aos filmes e seriados indicados
MCom omite resposta sobre satélite Starlink à Câmara
Positivo Servers & Solutions Eleva o Programa de Canais PSS Connect com Mais de 180 Parceiros e Incentivos Financeiros
Referência a Silent Hill em trailer de OD? Kojima deixa enigma
Os Simpsons: ChatGPT transforma cientistas famosos em personagens do desenho
O que esperar da cibersegurança em 2024?
Maior velocidade de internet equivale a mais segurança? Aparentemente sim.
%d