Despacho da ANPD foi publicado nesta terça e prevê multa de R$ 50 mil. Uso dos dados para treinar IA consta em nova política de privacidade; Meta diz estar 'desapontada' com decisão. A Autoridade Nacional de Proteção de Dados (ANPD) determinou que a Meta – big tech responsável pelo Facebook, Instagram e WhatsApp – suspenda, no Brasil, a validade da nova política de privacidade da empresa sobre o uso dos dados pessoais dos brasileiros. O órgão é uma autarquia federal vinculada ao Ministério da Justiça. Os novos termos de uso atuais permitem que a empresa utilize dados de publicações abertas de usuários, como fotos e textos, para treinar sistemas de inteligência artificial (IA) generativa. ⚠️ Por que isso importa? Porque o conteúdo que milhões de pessoas postam no Instagram e no Facebook está servindo para treinar inteligência artificial sem a empresa oferecer contrapartidas, nem informações detalhadas sobre onde a ferramenta poderá ser utilizada. A prática foi alvo de questionamento na Europa e, no Brasil, pelo Instituto de Defesa dos Consumidores (Idec). Em nota, a Meta disse estar “desapontada” com a decisão da autoridade nacional e defendeu que a abordagem da empresa para a inteligência artificial está de acordo com a legislação brasileira. “Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes dessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos”, diz o comunicado. “Nossa abordagem cumpre com as leis de privacidade e regulamentações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”, prossegue a Meta. O que a Meta diz sobre a coleta de dados para treinar IA e como desativar Por que a prática está sendo questionada? Como impedir que o Instagram e o Facebook usem suas fotos para treinar IA Meta passa a coletar dados das redes para IA. Saiba passo a passo para desativar O despacho da ANPD foi publicado no “Diário Oficial da União” desta terça-feira (2) e prevê multa de R$ 50 mil por dia de descumprimento “em virtude do risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares afetados”. A decisão foi tomada pelo Conselho Diretor da ANPD, e o documento é assinado pelo diretor-presidente da autoridade, Waldemar Gonçalves. Segundo o despacho, a ordem é para cumprimento imediato. A medida acontece após o Idec alertar a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) sobre a nova prática da Meta. Para o instituto de defesa do consumidor, a forma como a empresa está usando dados viola as leis brasileiras porque os usuários não foram avisados de antemão, a opção que permite se opor à prática é “pouco intuitiva”, e pode haver um benefício excessivo para a empresa (saiba mais). No prazo de cinco dias, a partir de quando for intimada, a Meta deve apresentar ao governo: documentação que ateste a mudança da Política de Privacidade dos serviços da empresa, para excluir esse trecho sobre o uso dos dados pessoais para treinar IAs generativas; declaração assinada por representante legal atestando que o uso dos dados foi suspenso. Dados pessoais para 'treinar' IA O caso ganhou atenção em 4 de junho, depois que a Meta informou na União Europeia e no Reino Unido que sua política de privacidade passaria a prever a possibilidade de usar dados de usuários para treinar sua IA. Com a repercussão negativa, a empresa voltou atrás e adiou a mudança da política na Europa – mas não fez o mesmo para o Brasil. Quando o Idec acionou o governo contra a nova política de privacidade desses serviços, a Meta afirmou que o uso das informações para adquirir uma inteligência artificial é de seu legítimo interesse, bem como de seus usuários e outras pessoas. “Estamos comprometidos em desenvolver a inteligência artificial na Meta – nossa coleção de recursos e experiências generativas de inteligência artificial junto com os modelos que os alimentam – de forma segura, responsável e atendendo as regulamentações de privacidade no Brasil”, disse a companhia ao g1 em 23 de junho. Treinamentos de modelos de inteligência artificial incluem o uso de grandes quantidades de dados e são necessários para que, em uma etapa posterior, eles sejam capazes de analisar informações e até gerar conteúdo por conta própria. O passo a passo para desativar a coleta de informações no Instagram g1 Grupo Globo atualiza princípios editoriais para incluir uso de inteligência artificial
Deixe o Seu Comentário