Crypto World

PUBLICIDADE

IA Generativa e Privacidade: Por Que as Grandes Empresas Ignoram a LGPD?

IA Generativa e Privacidade

O Dilema entre Inovação e Proteção de Dados

Em 2023, o ChatGPT tornou-se um fenômeno global, mostrando ao mundo o poder da inteligência artificial generativa. De repente, qualquer pessoa podia criar textos, imagens e até códigos de programação com alguns comandos simples. Mas por trás dessa revolução tecnológica, há um problema pouco discutido: o descaso das grandes empresas de IA com a privacidade dos usuários, especialmente no Brasil.

Um estudo recente da Fundação Getúlio Vargas (FGV) revelou que plataformas como Grok (de Elon Musk), DeepSeek e até mesmo o líder do mercado, ChatGPT, violam diversos requisitos da Lei Geral de Proteção de Dados (LGPD). Enquanto isso, empresas como Google e Meta, que já enfrentaram multas bilionárias na Europa por descumprir regulamentações, continuam operando com políticas obscuras no Brasil.

PUBLICIDADE

Por que isso acontece? A resposta envolve uma combinação de falta de fiscalização, lentidão na regulação específica para IA e, claro, o velho hábito das big techs de priorizar a inovação em detrimento da privacidade.


1. O Que a LGPD Exige – e Por Que as Empresas Ignoram

A LGPD, em vigor desde 2020, estabelece regras claras para o tratamento de dados pessoais no Brasil. Entre seus princípios estão:

  • Transparência: As empresas devem informar claramente como usam os dados.
  • Finalidade específica: Os dados não podem ser usados para fins diferentes dos declarados.
  • Transferência internacional segura: Se os dados saírem do país, deve haver garantias de proteção equivalentes.

No entanto, o estudo da FGV mostrou que:

  • Grok e DeepSeek sequer traduziram suas políticas de privacidade para o português.
  • ChatGPT e Gemini não informam claramente para onde vão os dados dos brasileiros.
  • Meta AI (integrada ao WhatsApp e Instagram) usa mecanismos de transferência de dados não permitidos.

Por que isso ocorre?

  • Falta de fiscalização: A Autoridade Nacional de Proteção de Dados (ANPD) ainda não aplicou multas pesadas o suficiente para mudar o comportamento das empresas.
  • Ausência de um marco regulatório para IA: Enquanto a Europa já tem a AI Act, o Brasil ainda discute o PL 2338/23, que pode levar anos para ser implementado.
  • Prioridade no mercado global: Para essas empresas, o Brasil é um mercado secundário. Enquanto não houver consequências sérias, a conformidade com a LGPD não será prioridade.

2. Os Riscos Reais: O Que Acontece Quando Dados Vazam?

Alguns podem argumentar: “Se o produto é gratuito, os dados são o preço a pagar.” Mas os riscos vão muito além de anúncios personalizados.

Caso 1: Dados Brasileiros Sob a Jurisdição dos EUA

Luca Belli, coordenador do estudo da FGV, lembra que, desde as revelações de Edward Snowden, sabemos que dados de não-americanos não têm proteção legal nos EUA. Isso significa que informações de brasileiros podem ser acessadas por agências de inteligência ou vazadas em brechas de segurança.

Caso 2: IA “Esquece” que Deve Proteger Dados Pessoais

Testes com ferramentas como ChatGPT e Gemini mostraram que, mesmo quando programadas para não processar dados sensíveis, elas ainda assim cometem erros. Um exemplo: em 2023, um usuário conseguiu fazer o ChatGPT revelar informações confidenciais de terceiros com um prompt simples.

Caso 3: Modelos Treinados com Dados Ilicitamente Coletados

Muitas IAs são treinadas com dados raspados da internet sem consentimento. A OpenAI já foi processada por usar livros protegidos por direitos autorais. Se empresas ignoram leis de propriedade intelectual, por que respeitariam a privacidade?


3. O Que Pode Ser Feito? Responsabilização e Conscientização

Enquanto o Brasil espera uma legislação específica para IA, usuários e autoridades podem agir:

Para as Empresas:

  • Adotar políticas claras em português.
  • Garantir que a transferência internacional de dados siga padrões da LGPD.
  • Permitir que usuários optem por não ter seus dados usados no treinamento de IA.

Para os Usuários:

  • Ler (sim, ler!) as políticas de privacidade antes de usar uma ferramenta.
  • Excluir conversas sensíveis após usar chatbots.
  • Cobrar transparência nas redes sociais e em canais de atendimento.

Para o Governo:

  • Acelerar a votação do PL 2338/23 para estabelecer regras claras sobre IA.
  • Multar empresas que descumprirem a LGPD, seguindo o exemplo da Europa.

Inovação Não Justifica Abuso

A inteligência artificial generativa é uma ferramenta incrível, mas não pode avançar sobre direitos fundamentais. Se as empresas não agirem com ética, caberá aos usuários e reguladores impor limites.

O estudo da FGV é um alerta: a LGPD existe, mas só funciona se for levada a sério. Enquanto gigantes como OpenAI, Google e Meta tratarem o Brasil como terra sem lei, nossa privacidade continuará à mercê do lucro alheio.

Veja Também: