O Dilema entre Inovação e Proteção de Dados
Em 2023, o ChatGPT tornou-se um fenômeno global, mostrando ao mundo o poder da inteligência artificial generativa. De repente, qualquer pessoa podia criar textos, imagens e até códigos de programação com alguns comandos simples. Mas por trás dessa revolução tecnológica, há um problema pouco discutido: o descaso das grandes empresas de IA com a privacidade dos usuários, especialmente no Brasil.
Um estudo recente da Fundação Getúlio Vargas (FGV) revelou que plataformas como Grok (de Elon Musk), DeepSeek e até mesmo o líder do mercado, ChatGPT, violam diversos requisitos da Lei Geral de Proteção de Dados (LGPD). Enquanto isso, empresas como Google e Meta, que já enfrentaram multas bilionárias na Europa por descumprir regulamentações, continuam operando com políticas obscuras no Brasil.
Por que isso acontece? A resposta envolve uma combinação de falta de fiscalização, lentidão na regulação específica para IA e, claro, o velho hábito das big techs de priorizar a inovação em detrimento da privacidade.
1. O Que a LGPD Exige – e Por Que as Empresas Ignoram
A LGPD, em vigor desde 2020, estabelece regras claras para o tratamento de dados pessoais no Brasil. Entre seus princípios estão:
- Transparência: As empresas devem informar claramente como usam os dados.
- Finalidade específica: Os dados não podem ser usados para fins diferentes dos declarados.
- Transferência internacional segura: Se os dados saírem do país, deve haver garantias de proteção equivalentes.
No entanto, o estudo da FGV mostrou que:
- Grok e DeepSeek sequer traduziram suas políticas de privacidade para o português.
- ChatGPT e Gemini não informam claramente para onde vão os dados dos brasileiros.
- Meta AI (integrada ao WhatsApp e Instagram) usa mecanismos de transferência de dados não permitidos.
Por que isso ocorre?
- Falta de fiscalização: A Autoridade Nacional de Proteção de Dados (ANPD) ainda não aplicou multas pesadas o suficiente para mudar o comportamento das empresas.
- Ausência de um marco regulatório para IA: Enquanto a Europa já tem a AI Act, o Brasil ainda discute o PL 2338/23, que pode levar anos para ser implementado.
- Prioridade no mercado global: Para essas empresas, o Brasil é um mercado secundário. Enquanto não houver consequências sérias, a conformidade com a LGPD não será prioridade.
2. Os Riscos Reais: O Que Acontece Quando Dados Vazam?
Alguns podem argumentar: “Se o produto é gratuito, os dados são o preço a pagar.” Mas os riscos vão muito além de anúncios personalizados.
Caso 1: Dados Brasileiros Sob a Jurisdição dos EUA
Luca Belli, coordenador do estudo da FGV, lembra que, desde as revelações de Edward Snowden, sabemos que dados de não-americanos não têm proteção legal nos EUA. Isso significa que informações de brasileiros podem ser acessadas por agências de inteligência ou vazadas em brechas de segurança.
Caso 2: IA “Esquece” que Deve Proteger Dados Pessoais
Testes com ferramentas como ChatGPT e Gemini mostraram que, mesmo quando programadas para não processar dados sensíveis, elas ainda assim cometem erros. Um exemplo: em 2023, um usuário conseguiu fazer o ChatGPT revelar informações confidenciais de terceiros com um prompt simples.
Caso 3: Modelos Treinados com Dados Ilicitamente Coletados
Muitas IAs são treinadas com dados raspados da internet sem consentimento. A OpenAI já foi processada por usar livros protegidos por direitos autorais. Se empresas ignoram leis de propriedade intelectual, por que respeitariam a privacidade?
3. O Que Pode Ser Feito? Responsabilização e Conscientização
Enquanto o Brasil espera uma legislação específica para IA, usuários e autoridades podem agir:
Para as Empresas:
- Adotar políticas claras em português.
- Garantir que a transferência internacional de dados siga padrões da LGPD.
- Permitir que usuários optem por não ter seus dados usados no treinamento de IA.
Para os Usuários:
- Ler (sim, ler!) as políticas de privacidade antes de usar uma ferramenta.
- Excluir conversas sensíveis após usar chatbots.
- Cobrar transparência nas redes sociais e em canais de atendimento.
Para o Governo:
- Acelerar a votação do PL 2338/23 para estabelecer regras claras sobre IA.
- Multar empresas que descumprirem a LGPD, seguindo o exemplo da Europa.
Inovação Não Justifica Abuso
A inteligência artificial generativa é uma ferramenta incrível, mas não pode avançar sobre direitos fundamentais. Se as empresas não agirem com ética, caberá aos usuários e reguladores impor limites.
O estudo da FGV é um alerta: a LGPD existe, mas só funciona se for levada a sério. Enquanto gigantes como OpenAI, Google e Meta tratarem o Brasil como terra sem lei, nossa privacidade continuará à mercê do lucro alheio.