ANDP determina que Meta não colete dados de brasileiros para treinar suas IAs

 William Schendes
William Schendes

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu uma Medida Preventiva nesta terça-feira (2), proibindo a Meta de utilizar os dados pessoais de brasileiros para o treinamento dos sistemas de inteligência artificial (IA) da empresa.

De acordo com o órgão, se a medida for descumprida, resultará em multa diária de R$ 50 mil.

Isso acontece porque a Meta atualizou a sua política de privacidade no dia 26 de junho para suas redes sociais, incluindo Facebook, Messenger e Instagram, permitindo que elas coletassem informações públicas e conteúdos compartilhados por usuários para treinar e aperfeiçoar seus sistemas de IA generativa.

Com isso em vista, a ANPD verificou que a medida da big tech violava a Lei Geral de Proteção de Dados (LGPD) e determinou a suspensão da nova política de privacidade em território nacional.

“A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento.”

- ANDP.

A ANPD também avaliou que a Meta não forneceu informações de maneira clara e acessível sobre a mudança em sua política de privacidade.

ANDP determina que Meta não colete dados de brasileiros para treinar suas IA
(Imagem: Mariia Shalabaieva/ Unsplash)

Apesar da nova política, a Meta forneceu uma forma para que os usuários impedissem a utilização de seus dados para o treinamento através de um formulário chamado “Direito de se opor”. No entanto, a autoridade considera que havia obstáculos para que os usuários pudessem solicitar que seus dados não fossem utilizados pela big tech.

Como observa a Folha de São Paulo, o formulário para pedir a interrupção do uso de informações pessoais contava com cinco páginas de configurações no Instagram, dificultando que os usuários pudessem cancelar o uso de suas informações e publicações compartilhadas nas redes sociais para fins de treinamento dos sistemas de IA.

Em nota, a Meta se pronunciou, afirmando que ela não é a única empresa que utiliza informações públicas para treinar seus sistemas e que é mais transparente do que muitas outras empresas.

“Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo exclusivo dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil.”

- Meta.

A atualização da política de privacidade foi paralisada na União Europeia (UE) após o órgão regulador europeu solicitar mais informações sobre como a empresa trataria os dados dos usuários para o desenvolvimento de modelos de IA.

FIQUE POR DENTRO!

 William Schendes
William Schendes
Jornalista em formação pela Universidade Metodista de São Paulo (UMESP). Escreve sobre tecnologia, games e ciência desde 2022. Tem experiência com hard news, mas também produziu artigos, reportagens, reviews e tutoriais.
recomenda: