ANPD determina suspensão de treino de IA da Meta com dados pessoais do usuário

ANPD determina suspensão de treino de IA da Meta com dados pessoais do usuário

Autarquia identificou riscos na política de privacidade da Meta para crianças e adolescentes, além de tratamento inadequado de dados

A Autoridade Nacional de Proteção de Dados (ANPD) determinou nesta terça-feira (2/7) a suspensão da vigência, no Brasil, da nova política de privacidade da Meta que autoriza o uso de dados pessoais publicados em suas plataformas (Facebook, Instagram, e Messenger) para fins de treinar de sistemas de inteligência artificial (IA). Em caso de descumprimento da medida preventiva, a multa diária estabelecida é de R$ 50 mil. Leia a íntegra do despacho

Em vigor desde 26 de junho, a nova política permite que informações compartilhadas publicamente por seus usuários sejam usadas para treinamento e aperfeiçoamento de sistemas de IA generativa. A ANPD instaurou o processo de ofício por identificar indícios de violações à  Lei Geral de Proteção de Dados (LGPD).

De acordo com voto da diretora relatora, Miriam Wimmer, aprovado pelo Conselho Di reitor, estão presentes constatações que fundamentam a medida preventiva, que são “uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas”. 

Segundo a agência, a Meta “não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa”.

A ANPD considerou ainda que as informações publicadas nas plataformas da Meta são, em geral, compartilhadas para relacionamento com amigos, comunidade próxima ou empresas de interesse. “Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas”.

A autarquia ressalta que “dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta”. E destaca que a LGPD prevê que “o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar”.

A decisão, na avaliação do advogado especialista em regulação digital Gustavo Artese, é um marco, na medida em que “institui no Brasil a regulação da IA por via indireta no que tange ao tratamento de dados”. Artese destaca o ineditismo da medida, o que, ao seu ver, reflete um comprometimento da autarquia em atuar na regulação de IA. “Em quase 5 anos de existência e há 4 anos regulando a proteção de dados, a ANPD nunca tinha usado uma medida dessa natureza”, pontua.

Em nota, a Meta informou que está desapontada com a decisão da ANPD. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, diz a nota.

GRASIELLE CASTRO – Editora do site em São Paulo. Responsável pela cobertura de política. Foi repórter no Correio Braziliense, repórter e editora no HuffPost e coordenadora de sucursais no Metrópoles. Email: grasielle.castro@jota.info

Share on whatsapp
Share on facebook
Share on linkedin

mais novidades