Codebit - Programando Soluções

Segurança da Informação

LGPD e IA: até onde é permitido utilizar dados de clientes em algoritmos?

Veja o que diz a LGPD e conheça as vantagens e riscos dessa combinação cada vez mais frequente.

Postado em 21/07/2025

Brenda Pimentel

A combinação entre inteligência artificial (IA) e dados pessoais tem sido pauta de muitas discussões empresariais e até governamentais. Apesar do potencial transformador para empresas de todos os setores, a junção desses dois fatores levanta uma série de dúvidas jurídicas, éticas e técnicas, especialmente em relação ao cumprimento da Lei Geral de Proteção de Dados (LGPD). Afinal, até onde vai o uso de dados de clientes em plataformas de IA? Como garantir inovação sem comprometer a privacidade e os direitos individuais?

Em 2024, uma pesquisa da IBM revelou que mais de 41% das empresas brasileiras já utilizam IA em algum nível, principalmente para aprimorar o atendimento ao cliente, automatizar processos e analisar o comportamento de consumidores. Mas, quando o assunto é LGPD, apenas 36% das empresas brasileiras afirmam estar plenamente confiantes no cumprimento da Lei, como indica o estudo IT Trends Snapshot 2023, feito pela Logicalis, empresa global de soluções e serviços de tecnologia.

Em um mundo em que estar online é sinônimo de fornecer dados, e o princípio da IA é aprender com eles, abordar essa combinação se tornou indispensável. Seja para treinar modelos de linguagem, reconhecer padrões de consumo ou prever comportamentos, a qualidade e a quantidade de dados são fatores decisivos para o aprendizado de máquina. Isso significa que, ao usar IA, empresas precisam alimentar seus algoritmos com informações — muitas vezes extraídas de interações com clientes, registros de uso, cadastros, históricos de navegação e feedbacks.

Uma fintech, por exemplo, pode usar IA para prever o risco de inadimplência com base em dados de transações passadas. Um e-commerce pode personalizar ofertas com base no histórico de compras, cliques e interações com conteúdos específicos. Já assistentes virtuais baseados em IA são treinados a partir de dados de atendimento para melhorar a precisão nas respostas. O ponto de atenção é que boa parte desses dados são pessoais e, portanto, protegidos pela LGPD.

O que a LGPD diz sobre o uso de dados em IA?

Em vigor desde 2020, a LGPD estabelece diretrizes claras para o tratamento de dados pessoais em todo o território brasileiro. Entre os princípios fundamentais estão o da finalidade (usar os dados apenas para o que foi informado), o da transparência e o da necessidade.

No contexto da IA, um dos pontos mais delicados é o uso de decisões automatizadas. O artigo 20 da LGPD garante ao cliente o direito de solicitar a revisão de decisões tomadas exclusivamente por meios automatizados que afetem seus interesses — como uma negativa de crédito, por exemplo.

Além disso, a LGPD incentiva o uso de dados anonimizados (quando não é possível identificar o titular, ou seja, o cliente), o que reduz significativamente os riscos legais. No entanto, se a IA estiver sendo treinada com dados que identificam esses consumidores, é necessário consentimento claro e informado, ou outra base legal que justifique o uso.

Vantagens do uso de IA com dados de clientes

Apesar dos desafios, o uso ético de dados em soluções de IA pode trazer ganhos importantes. Aliás, esse é o principal fator que tem contribuído para essa combinação. 

Empresas como a Nubank já utilizam IA para prevenir fraudes em tempo real, com base no comportamento de uso do aplicativo. O Magalu, por sua vez, investe em IA para personalizar as recomendações de produtos, visando aumentar a taxa de conversão sem comprometer a privacidade dos usuários.

Entre as principais vantagens do uso de dados em IAs, estão:

  • Eficiência operacional: os algoritmos conseguem automatizar tarefas como triagem de currículos, análise de documentos e resposta a perguntas mais frequentes, as famosas FAQs.

  • Melhoria da experiência do cliente: chatbots e assistentes virtuais personalizados tornam o atendimento mais rápido e preciso.

  • Geração de insights estratégicos: as IAs podem identificar tendências ocultas nos dados e orientar decisões mais assertivas aos setores de marketing, vendas e produto, gerando novas oportunidades.

E quanto aos riscos e desafios jurídicos?

O maior risco do uso inadequado de IA com dados pessoais é a violação da LGPD, o que pode resultar em multas de até 2% do faturamento anual da empresa, podendo chegar a R$ 50 milhões por infração.

Os riscos incluem vazamento de dados, falta de transparência, uso indevido e até reprodução de vieses discriminatórios, uma vez que o algoritmo pode replicar dados preconceituosos — como já aconteceu com sistemas de reconhecimento facial e recrutamento automatizado. 

Para equilibrar inovação e conformidade, é preciso adotar medidas técnicas, legais e de governança. Os princípios básicos para empresas que querem usar dados de clientes em IAs são:

  • Obter consentimento quando necessário, com linguagem clara e objetiva.

  • Preferir dados anonimizados em processos de treinamento de modelos.

  • Implementar controles de acesso e segurança, garantindo a integridade dos dados utilizados.

  • Documentar as bases legais do tratamento em relatórios de impacto (DPIA).

  • Promover a governança de IA, criando comitês de ética tecnológica e protocolos de revisão de decisões automatizadas.

Como se preparar para um futuro regulado por IA

A regulamentação da IA está avançando globalmente. A União Europeia aprovou em 2024 o AI Act, que estabelece obrigações proporcionais ao risco do sistema de IA — e inspira legislações semelhantes em outros países, inclusive no Brasil.

Empresas que se anteciparem e criarem políticas internas claras sairão na frente. Isso inclui treinar equipes jurídicas, técnicas e de produto sobre LGPD e IA, revisar contratos com fornecedores de IA, garantindo cláusulas de proteção de dados e realizar auditorias frequentes sobre como os dados são coletados, usados e armazenados.

Inovar com IA e respeitar a privacidade dos clientes não são objetivos opostos — são caminhos complementares para uma tecnologia mais segura, confiável e responsável. A LGPD veio para ficar, assim como a IA, e suas aplicações conjuntas exigem atenção contínua, diálogo entre áreas e um compromisso ético com quem realmente importa: o usuário.